News Samsung Foundry: 4-nm-Fertigung nutzt EUV und Gate all Around

was kommt als nächstes? 3,2, 1nm und danach...fangen wir wieder bei 10 Ångström ...
danach geht es bei 650 Ångström weiter ... :rolleyes:

Ansonsten schließe ich mich der Meinung meines Vorgängers an:

Die IT-Halbleiter Geschichten haben immer den Beigeschmack das 99% des Inhalts absichtlich fehlen und der Autor nicht weiß was er tippt.
 
bellencb schrieb:
danach geht es bei 650 Ångström weiter ... :rolleyes:

Ansonsten schließe ich mich der Meinung meines Vorgängers an:

eher 650 pm ..,Ångström sind immernoch 10^(-10) m ; aber das sind ja eh nur noch Fantasie Angaben des Marketing. Mit physikalischen Dimensionen hat das ja eh nichts mehr zu tun.

Ich bin erstmal überhaupt gespannt ob sich EUV durchsetzen wird, der EUV-Photoresist soll fast mehr Probleme machen als die Quelle. Ist ja auch ein Thema was wie 450mm nicht erst seit gestern durch die Szene geistert ..

Würde mich eher interessieren ob die vertical oder horizontal nanowires bauen wollen ...
Nanowires sind ja sowieso eine interessante Sache; wen es interessiert der kann ja mal nach "rekonfigurierbarer Logik" mit "Nanowires" suchen ...
 
Zuletzt bearbeitet:
Schon erstaunlich, wie die Entwicklung vorangeht... Noch vor Jahren wurden derart feine Strukturen als unmöglich machbar angesehen.
Allein, wenn man sich vor Augen hält, daß der erste Gigahertz-Prozessor noch in 180nm gefertigt wurde....
 
S!lent Death schrieb:
Ist ja auch ein Thema was wie 450mm nicht erst seit gestern durch die Szene geistert ..

Würde mich eher interessieren ob die vertical oder horizontal nanowires bauen wollen ...

Nur daß das Thema 450mm-Wafer tot ist und auf EUV alle Hersteller angewiesen sein werden.
Die Frage bei der technischen Entwicklung ist auch eher, ob der Industrie wegen zu hoher Kosten nicht die Kunden ausgehen, bevor ihnen die Lösungen für physikalische Probleme ausgehen.

Die einzige bislang vorgestellte Implementation, die ich kenne, stammt von IMEC und hat (zwei übereinandergestapelte) horizontale Nanowires.
Ein Nanowire ist dabei 8nm 'dick'.
 
@Candy_Cloud

Was war denn das für eine Lehre/Ausbildung, wenn ich fragen darf?

OT:
was mich sehr interessieren würde: wie klein die kleinsten Strukturen tatsächlich sein werden. Und in wie weit Samsungs 10nm/7nm-Prozess mit Intels vergleichbar ist. Bis zu echten 7nm ist also noch lange hin...
 
Zuletzt bearbeitet:
früher oder später wird man an eine Wall kommen, schon allen wegen Atomaren Ausmaßen. Dann ist die Frage was Intel und Co in der Hinterhand haben. Dann muss schon fast eine grundlegend neue Technik her, weg vom aktuellen Transistor oder Material. Dass es dabei erstmal nicht zwingend schneller sein muss ist klar.

Kein kleines Forschungsbudget dürfte für diese Alternative aufgewendet werden.
Ergänzung ()

@Beyazid

es ging nicht um Geheimdienste usw sondern darum was Quantencomputer können + deren Stand der Entwicklung ^^
Diese können durchaus für das Knacken von typischen auf Primfaktorzerlegung basierten Methoden wie RSA einwirken und diese unbrauchbar machen, aber auch hierfür stehen mit zb elliptischen Kurven Alternativen im Raum.

Interessant wäre mal eine Quanten basierte Kommunikationstechnik die quasi latenzfrei eine Kommunikation über beliebige Distanz erlaubt.
 
Zuletzt bearbeitet:
Ich glaube ich muss auch einmal meinen Senf dazu geben:
In der Art wie einige Vorposter hier Zahlen an die potentielle Leistung von Quantencomputer hängen ist irrsinnig. Es gibt bestimmte Probleme für die man auf konventionellen Computern Algorithmen kennt, die dafür z.B. mit Ordnung O(n!) oder O(2^n) skalieren, bei denen also der Aufwand sehr schnell sehr gross wird, wenn die Zahl der Elemente n gross wird. Auf Quantencomputern sind für einige dieser Probleme Algorithmen bekannt die dann statt mit O(p(n)) skalieren wobei p eine polynomiale Funktion ist. Oder Grovers Algorithmus den man zur Suche in Datenbanken verwenden kann skaliert mit O(sqrt(n)) statt mit O(n). Wenn man sich nun eine Datenbank mit 1 mrd Einträge Vorstellt, dann erkennt man warum das ein grosser Vorteil ist, sieht aber auch ein warum Aussagen wie (100000 mal schneller) keinen Sinn ergeben. Übrigens teilt man Probleme gern in Komplexitätsklassen ein wie P oder NP oder P-Space etc. um sie ihrer Komplexität nach zu unterscheiden, jedoch ist nicht abschliessend bewiesen, dass diese Klassen überhaupt unterschiedlich sind. Es gibt zwar indizien dafür aber sollte sich das Gegenteil beweisen lassen dann verfällt potentiell der Vorteil von Quantencomputern und wir haben lediglich nicht die richtigen klassischen Algorithmen gefunden.

Übrigens kann ein universeller Quantencomputer auch klassische Probleme lösen, denn er ist ebenso Turing Complete wie Bernstein und Vazirani in einer ihrer frühen arbeiten zeigen konnten.

Dafür sind Quantencomputer aber ggf. mit wahnsinnigem Aufwand verbunden, undzwar nicht nur in der physikalischen Umsetzung. Z.B. kann man Qubits nicht einfach kopieren (siehe no-cloning-theorem). Das heißt in vielen Problemen, dass man ganz häufig den gleichen Zustand parallel dazu erzeugen muss statt einfach nur ein Qubit zu verändern.

Physikalisch sind Quantencomputer absurd schwierig zu bauen und dafür gibt es je nach Realisierung (Cavity QED, On Chip Ionenfallen, Supraleiterstreifen etc) eine ganze Reihe von anderen Problemen. In den meisten Experimenten muss man super tiefe Temperaturen erzeugen um Dekohärenz zu vermeiden, wenn man als Qubits einzelne Ionen nutzt, dann braucht man in der Regel ein sehr kompliziertes Lasersetup und ist froh wenn man in einem optischen Gitter mehr als 5 davon einfangen kann, in optischen Ansätzen hat man das Problem, dass Photonen nicht vernünftig sondern nur über sekundäre Prozesse miteinander wechselwirken und ganz allgemein sind wir von einem large scale Quantencomputer mit millionen von qubits meilenweit entfernt.
Ich empfehle dazu das Buch von Nielsen & Chuang - hab es parallel zur Vorlesung Quanteninformationsverarbeizung gelesen und es ist das de fakto Standardwerk auf dem Gebiet.
Richtig spannend wird das Gebiet, sobald man es schafft on chip mit sehr hoher Reproduzierbarkeit auf sehr kleiner Größe (nm skala) Qubitsysteme realisieren und auf kurzen Zeitskalen (ns skala) kontrollieren kann um zwischen den Qubits alle Operationen durchführen zu können, die es für eine universelle quantum turing machine braucht und zusätzlich irgendwie die Kohärenz hoch hält. Davon ist man (noch) weit entfernt.

Moglicherweise können andere Ansätze die an verschiedenen Stellen bei klassischen Computern Verbesserungen versprechrn aber trotzdem unseren immer wachsenden Hunger nach Compute Power stillen. Z.B. Antiferromagnetische Spintronik zum Bau von sehr schnellen MRAM Zellen. Oder neue Halbleitermaterialien zum Bau wesentlich schneller schaltenden Transistoren. Oder Optical Interconnects zwischen verschiedenen Bauteilen, die mit Nano-Laserdioden getrieben werden, für mehr Bandbreite.

Finde es, um zu der News noch etwas zu sagen, in jedem Falle eine sportliche Ansage so weit zu skalieren. Besonders EUV ist ja seit Jahren ein Sorgenkind in der Halbleiterfertigung aber wenn weiter so Geld gegen das Problem geschmissen wird, dann kann man wohl auch mit Resultaten rechnen. Ich freue mich jedenfalls darüber.
 
Zurück
Oben