News Next-Gen-GAA-Fertigung: Ab N2 kommen auch bei TSMC Nanosheets zum Einsatz

@Forum-Fraggle Doch, das ist schon richtiges 3D-Stacking. Aber die Bezeichnung ist etwas anderes als 3D-Schaltpläne, da hast du schon recht. Soweit ich weiß, gibt es keinerlei Pläne oder Forschung für 3D-Schaltpläne, weil das einfach mit den aktuellen Verfahren in der Lithographie gar nicht durchsetzbar wäre. Schau dir mal in der Grafik rechts an, was da für 3D-Aufbauten notwendig sind, um nur einen 2D-Schaltplan sauber miniaturisiert zu bekommen:
1654766341805.png


Die existierenden 3D-Verfahren sind einmal das Gate-All-Around, das ermöglicht, einen Transistor dreidimensional Aufzubauen. Da wird das Gate von allen Seiten umschlossen, anders als beim FinFET, der deswegen nur als 2.5D gilt.

Und dann gibt es noch das Stacking von Chips auf Chips. Da galt die Integration von HBM und Prozessor-Chip auf einem Interposer als 2.5D, weil es zwei verscheidene Chip-Typen waren, die aufeinander gestapelt wurden. AMDs 3D-Stacking ist dann richtiges 3D, weil zwei Logik-Chips in moderner Fertigung aufeinander gestapelt werden. Die Leitungen verlaufen in dem Fall auch teilweise dreidimensional und man bekommt einen Stapel aus Schaltkreisen auf Schaltkreisen. Also man bekommt genug 3D.
 
  • Gefällt mir
Reaktionen: Cr4y, Forum-Fraggle und v_ossi
und damit weg mit dem Offtopic und zurück zum eigentlich thema.

warum muss jede Randdiskussion immer das eigentliche thema überlagern? klärt sowas bitte in den privaten nachrichten oder im richtigen teil des Forums
 
Colindo schrieb:
Die Grenze gilt immer noch. Aber die Transistoren schrumpfen schon lange nicht mehr so stark, wie es die Fertigungsnamen suggerieren. Viele Tricks wie FinFET und jetzt eben GAA erlauben, dass der Transistor größer bleiben kann, aber sich wie ein sehr kleiner Transistor verhält. Ebenso werden die Transistoren immer kompakter, ohne dass eine der Dimensionen der Grenze von 4 nm näher kommt. Es rutschen einfach die Einzelteile immer näher aneinander.

Ähm das ist doch nicht gut, weil man so nicht wirklich die Fläche vergrößert weil wenn der kleiner wird, wie soll da dann mehr platz drauf sein, das ergibt doch keinen sinn.zumal je enger und näher die Einzelteile liegen, desto heißer wird ja die CPU dann sein. Das finde ich nicht so gut. Denn die CPU und gpu wird ja immer schwieriger zu kühlen sein. Sieht man ja sofern diese gpu von nividia kommen sollte ja gleich mit 3 Lüftern kommen. Das wird wirklich heftig werden. Ich frage mich echt wie weit man das ganze noch gehen kann.


PS : Die meinen Handy ersetzt irgendwann mal den PC das wird er niemals können, dafür ist das Handy noch nicht flexible genug. Mein Bruder wollte was mit Router machen auf dem Handy. Das Handy wollte aber nicht also musste er es mit dem PC machen was er eigentlich mit dem handy machen wollte. Es scheint manches Sachen zu dumm zu sein weil einfach strukioiert. Und noch hat das Hany keinen LAN Anschluss damit ich auf das Nas Laufwerk drauf zu zugreifen können. Am besten dann mit Maus und Tastatur.. Soweit sind wir da noch lange nicht und nein nen taplet hat ebenso Android und damit die selben einschränkungen.
Sollte das handy alles können, dann erstetze ich sehr genre es gegen das Handy. Bis dahin hoffe ich videos mit h264 auch mal mit dem Handy umwandeln zu können und zwar mit der Software die ich seid Jahren verwende. Ansonsten wird mir das handy niemals den PC ersetzen können.
 
Zuletzt bearbeitet:
PS828 schrieb:
warum muss jede Randdiskussion

Damit es einen Grund für die Existenz für die Tätigkeit von Personen wie dir gibt. Du könntest es sonst falsch verstehen. Der Grund deiner Existenz liegt bei deinen Eltern. :heilig:

Die harmlosen Sachen müssen sein, damit genug von euch existieren, damit die unschönen Sachen (die die gesamte Plattform in Schwierigkeiten bringen, wenn sie zu lange sichtbar sind) schnellstmöglich gelöscht werden und wenn es auch euch keinen Spaß machen würde, würdet ihr es nicht machen.

btt:

latiose88 schrieb:
Es scheint manches Sachen zu dumm zu sein weil einfach strukioiert.

Das Handy?

Das Problem sitzt zu 95% und mehr vor dem Bildschirm.

Evtl. wird das Handy aber mit 2nm dann klüger. Auf jeden Fall kann man mehr Transistoren pro Fläche verbauen, was die Kosten bei gleicher Leistung reduziert oder aber die maximal mögliche Rechenleistung bei gleicher Fläche erhöht.

Am Ende ist es wie bei uns Menschen. Wir alle benutzen relativ wenig unserer Hardware zwischen den Ohren. Die einen dann mehr, die anderen weniger.

mfg
 
Zuletzt bearbeitet:
Danke Dir. Leider ist meine ursprüngliche Frage zu Deiner Antwort im Aquarium gelandet, weil angeblich offtopic. Ich hoffe Deine hilfreichr Antwort bleibt wenigstens erhalten.
Colindo schrieb:
@Forum-Fraggle Doch, das ist schon richtiges 3D-Stacking. Aber die Bezeichnung ist etwas anderes als 3D-Schaltpläne, da hast du schon recht. Soweit ich weiß, gibt es keinerlei Pläne oder Forschung für 3D-Schaltpläne, weil das einfach mit den aktuellen Verfahren in der Lithographie gar nicht durchsetzbar wäre. Schau dir mal in der Grafik rechts an, was da für 3D-Aufbauten notwendig sind, um nur einen 2D-Schaltplan sauber miniaturisiert zu bekommen:
Anhang anzeigen 1226364

Die existierenden 3D-Verfahren sind einmal das Gate-All-Around, das ermöglicht, einen Transistor dreidimensional Aufzubauen. Da wird das Gate von allen Seiten umschlossen, anders als beim FinFET, der deswegen nur als 2.5D gilt.
.
 
Artikel-Update: Heute hat TSMC die Fertigungsstufe N2 offiziell enthüllt und die zuvor genannten Daten bestätigt. Der Wechsel zu Gate All Around, oder Nanosheets, wie TSMC den Begriff nutzt, soll gegenüber der Fertigungsstufe N3(E) 10 bis 15 Prozent mehr Leistung bei gleicher Leistungsaufnahme oder aber 25 bis 30 Prozent geringere Leistungsaufnahme bei gleicher Performance bieten. Eine High-Performance-Variante als auch eine Mobile-Version sollen davon aufgelegt werden. Produktionsbeginn ist frühestens im Jahr 2025.

Helfen wird auch bei TSMC in Zukunft High-NA-EUV von ASML. Laut Medienberichten erklärte TSMC zum Technology Symposion in den USA, ebenfalls wie Intel bereits 2024 über die Technologie verfügen zu können.
 
  • Gefällt mir
Reaktionen: PietVanOwl und konkretor
Dem Fahrplan zufolge wird die Halbleiterindustrie mindestens bis 2032 so weitermachen wie in den letzten 10 Jahren. Aber natürlich wird es Verzögerungen geben, und deshalb vermute ich, dass Silizium und FinFETs bis Ende der 2030er Jahre weiterlaufen werden.

Ich kann mir gut vorstellen, dass es irgendwann auch Übergangslösungen geben wird, die zum Teil mit Silizium und FinFETs und zum Teil mit Graphen und CNTs realisiert werden.


Es besteht immer noch die Möglichkeit, die Chemie zu ändern und andere Materialien für die P- und N-FinFETs zu verwenden, um höhere Frequenzen wie 2000 GHz zu erreichen wie Galliumnitrit (GaN) und Arsenit.

MFG Manu
 

Anhänge

  • 1655446864854.png
    1655446864854.png
    23,6 KB · Aufrufe: 161
Zuletzt bearbeitet:
beckenrandschwi schrieb:
Dann sind hoffentlich die Quantencomputer einsatzfähig. Oder Skynet da.

Mein letzter Stand zu dem Thema ist, dass der Quantencomputer schon lange da ist, aber die Reife noch fehlt. Abgesehen davon ist nicht jede Anwendung auf einem QC gut aufgehoben. Code-Schreiben für solche Geräte unterscheidet sich deutlich vom herkömmlichen, auf 1 und 0 aufbauenden, PC. Der Aufwand alleine ein Schreibprogramm wie Word etc. in Quantencomputern zu realisieren, steht in keinem Verhältnis zur weiteren Verwendung von herkömmlichen Halbleiter-Rechnern, die günstig und technisch ausgereift sind.
Denkbar sind in naher Zukunft Quantenmodule in herkömmlichen Rechnern, die Aufgaben von der CPU zugewiesen bekommen, ähnlich wie das mit GPUs und früher FPUs schon geschehen ist.

Also zum Thema: Die Entwicklung neuer Technologien in dem Bereich ist wirklich faszinierend und wird auch weiter notwendig sein. Die Anwendungen dafür wird es schon geben und man sieht an Apples M1 bzw M2 ja auch, dass hier Potential aufgebaut wird.
 
erdmann22 schrieb:
Es besteht immer noch die Möglichkeit, die Chemie zu ändern und andere Materialien für die P- und N-FinFETs zu verwenden, um höhere Frequenzen wie 2000 GHz zu erreichen wie Galliumnitrit (GaN) und Arsenit.
Also 2.000 GHz halte ich jetzt für ein wenig übertrieben. Mit Silizium kannst du theoretisch bereits einzelne Transistoren mit 100+ GHz bauen (selbst mit GaN, GaAs oder InP sind 300+ GHz schwierig).
Bei der Integration von mehreren Transistoren dieser Art scheitern diese hohen Taktraten allerdings an solchen "Kleinigkeiten" wie z.B. parasitären Kapazitäten (Leiterbahn <-> Isolator <-> Leiterbahn ergibt einen Kondensator mit je nach Aufbau gearteter Eigenfrequenz ob das nun gewollt ist oder nicht), Betriebstemperatur, die Ladung des Materials selbst und wie schnell sie auf-/abgebaut werden kann, usw.
 
Zuletzt bearbeitet:
[wege]mini schrieb:
und die 4k Geräte schon beinahe "veraltet" sind
Immerhin tut unser ÖR was für unser Klima und sendet nur mit 720p.
 
0xffffffff schrieb:
Immerhin tut unser ÖR was für unser Klima und sendet nur mit 720p.
Irgendjemand vom ÖR argumentierte mal, dass Zuschauern bei höheren Auflösungen schlecht werden könnte.
 
  • Gefällt mir
Reaktionen: ArilethDeTyr
[wege]mini schrieb:
Hoffentlich.

Es würde dem Stromverbrauch und damit dem Planeten echt gut tun.

Ich bin nicht sicher ob die CO2 Bilanz von Notebooks wirklich besser ist. Ja die brauchen etwas weniger Strom. Dafür sind Notebook aber wegwerf Produkte. An neueren Geräten kann man nicht einmal mehr Akku dann oder Festplatte wechseln. Bei einem defekt landet oft das ganze Gerät inkl Display auf den Müll, weil eine Reparatur sich nicht lohnt.

Im Vergleich kann man einen Desktop immer wieder aufrüsten. Ein Monitor von mir ist bald 15 Jahr alt. Netzteile und Gehäuse teilweise über 10.

Ich kenne keine Zahlen, kann mir aber vorstellen dass der höhere Materialeinsatz schwere wiegt als ein paar Watt mehr Strom im Betrieb.
 
Es gibt hier sehr viele fundierte und fachlich gute Antworten zu dem Thema.
Was ich mich hin und wieder frage ist: Wie weiss ich denn ob Nutzer XY zu dem Thema auch wirklich Ahnung hat? In der Signatur ? ( z.B. "Ich studierte Elektrotechnik, dann Dr., aktuell Firma XY als Abteilungsleiter SoC Anpassung") So bin ich mir nicht immer sicher ob das gut geschrieben oder nur gut gewollt ist oder eher in die Ecke "Dunning-Kruger Effekt" gehört.

Wie macht ihr das?
 
paul.muad.dib schrieb:
Im Vergleich kann man einen Desktop immer wieder aufrüsten.

Das Gehäuse.

Stück für Stück werden einzelne Teile unbrauchbar oder zu langsam und man wird verleitet, jedes einzelne weg zu werfen.

Bei mir geht es beim c64 los. Der wurde weg geworfen, ich war jung.

A600 ebenfalls.

A1200 existiert noch. A32CD existiert noch. Sega Saturn existiert noch. Der spät gekaufte (guter Taler) A4000 existiert noch.

Die PC Hardware von damals existiert nicht mehr und wurde von mir aufgrund von Sammelwut neu gekauft. (Voodoo2 16MB als SLI z.B.)

Mein AMD3000+ Notebook mit AMD 9600m lebt nicht mehr, das ging kaputt. Das davor benutzte 733 mhz Celeron wurde 2010 weg geworfen, das ergab keinen Sinn mehr. Das war kurz vor kaputt gehen.

Aktuell leben hier noch ein Acer 5650 mit Prozessoren zur Wahl von T2400 bis T7600 mit Geforce 7600m, ein i7 2920 xm mit HD7970m, ein i7 6700HQ mit GTX1070m und ein AMD4800er mit RTX 3060m.

Von der Desktop Hardware habe ich nur weniges aufgehoben. So eine R9 Nano oder eine GTX780Ti double hand selected, kann man schon mal behalten, wenn der Preis gestimmt hat :D

mfg
 
Kantonspital schrieb:
Wie macht ihr das?

Ich würde sagen, es ist ein bisschen wie mit Automotoren: Jeder weiß, wie einer funktioniert, aber reparieren oder gar bauen kann ihn kaum jemand.
Mein Wissen hab ich von öffentlichen Vorträgen, Beiträgen in Foren und ein wenig aus dem Studium.
Am Ende ist all das Wissen aber auch nichts wert, wenn so etwas unvorhersehbares wie Angriffskriege oder Pandemien eintreten und der technische Fortschritt entweder teuer wird oder sich verlangsamt.
 
  • Gefällt mir
Reaktionen: Kantonspital
Kantonspital schrieb:
Wie macht ihr das?
Ich würde prinzipiell nur CB-Lesern trauen, die eigenen Leserartikel in der Signatur haben :D

Nee, Spaß. Wenn man ein wenig mitliest, merkt man sehr schnell, wer Dinge im Konsens mit der Gruppe an Experten schreibt und wer sofort fundierten und mit Quellen belegten Gegenwind bekommt. Ansonsten gilt immer: Nachfragen. Wer gar keine Quellen liefert, erzählt womöglich Märchen.
 
  • Gefällt mir
Reaktionen: Kantonspital
Samsung will wiederum bei 3 nm schon in diesem Jahr darauf setzen.
Samsung sollte erstmal schauen, dass 5nm und 4nm vernünftig funktionieren. Die Yields gurken immer noch unter 50% rum.
 
Ich wundere mich ja echt schon immer wie die die N und P Dotierung bei den 1x nodes geschweige denn darunter hinbekommen. Bei 64nm waren die schon riesig gegenüber den kleinsten Transistoren. Bei 28nm waren die zwar kleiner aber noch immer riesig gegenüber den Transistoren. Bei den Finfets wird es sicherlich nicht anders sein.

Da stellt man sich schon die Frage wie man die CFETs bauen will. Da liegen dann ja zwei Dotierungen übereinander o_O

Wer sich mal mit den Ursachen für mangelnde Uniformität von Transistoren beschäftigt hat weiß, dass die auch durch Streuprozesse während des Dotierens verursacht werden.

Das hat ja auch Auswirkungen auf die Gates. Daher auch Gate last statt Gate First um das an zu gehen...


Wie gesagt, mir fehlt da etwas die Vorstellung wie das vernünftig funktionieren soll. Ok vielleicht bekommt man es für Digitallogik noch hin, aber sehr schnelle Digitallogik oder Analoge Schaltungen kann ich mir kaum vorstellen.
 
beckenrandschwi schrieb:
Dann sind hoffentlich die Quantencomputer einsatzfähig.
Zu blöd dass die meisten Programme für Neumann-Computer entwickelt sind und dass Quanten Computer diese nicht? Emulieren können.
 
Zurück
Oben