Notiz 3-nm-Prozess: TSMC stößt auf mehr Probleme und Verzögerungen

DarkerThanBlack schrieb:
Dazu muss man auch wissen wie man den Takt erhöht. Man verdoppelt die Schaltungen was man mit mehr Transistoren erreicht.
Durch eine reine Verkleinerung wird nichts einfach schneller, sondern mit der Möglichkeit mehr Schaltungen unterbringen zu können.
Ich versteh nur Bahnhof. Man erhöht den Takt durch verdoppelung der Schaltungen?
Es wird durch die Miniaturisierung nicht potenziell schneller?

Das widersprich ja der gesamten Entwicklung, die bis jetzt in Sachen Prozessgröße und Taktgeschwindigkeit stattgefunden hat.
Ist es nicht eher so, dass es schwieriger ist, bei gesteigerter Transistorzahl den Takt hochzuhalten und gerade die Miniaturisierung und der dadurch möglichen niedrigeren Betriebsspanung, konstanteren Gruppenlaufzeiten und damit einhergehenden niedrigerem Signalrauschen/sauberen Signalflanken dem ganzen entgegenwirkt?

Der Transistor wird doch nicht dadurch schaltungsfreudiger, weil ein zweiter neben ihm liegt, sondern weil er durch die Miniaturisierung mit weniger Ladung schneller den Leitungszustand für 0 oder 1 erreichen kann.
 
Zuletzt bearbeitet:
Es geht um die Signalintegrität welche durch die Verdopplung oder gar Verdreifachung der Schaltungen an Parität gewinnt.
Dadurch sind im Schnitt höhere Takte möglich.

Um es einfacher zu verdeutlichen. Ein ganz ganz simples Beispiel.
Du hast eine CPU mit 16 Kernen. Benötigst aber nur 8 Kerne um eine Aufgabe zu erledigen.
Da können dann die 8 langsamsten Kerne aussteigen, aber trotzdem erfüllt die CPU die Aufgabe mit dem höchsten Takt und Geschwindigkeit.
 
Shaav schrieb:
Vor Jahren gab es mal einen Vergleich in Form einer Tabelle der verschiedenen Fertigungsverfahren von TSMC, SAMSUNG, INTEL und GlobalFounddries. Ich meine auf heise.de habe ich den gesehen. In diesem Vergleich stand, was sich hinter dieser Marketingbezeichnung eigentlich verbirgt, nämlich die tatsächliche Strukturbreite der einzelnen Komponenten des Transistors. ("Gate", "Pitch" oder so)
Ich fände es super, wenn es von ComputerBase einen aktuellen Artikel zu dem Thema gäbe. Hoffentlich ist das nicht zu speziell 😅
In der Tat wäre so ein Artikel mit dem technischen Stand von 2021 sehr zu begrüßen.
 
danyundsahne schrieb:
.
Da werden noch mehr Probleme auftauchen...nicht nur bei TSMC, sondern auch Samsung, Intel und andere Auftragsfertiger

Intel ist kein Auftragsfertiger
 
  • Gefällt mir
Reaktionen: danyundsahne
Rock Lee schrieb:
Du verwechselst EUV mit GAA (Gate all around)
EUV ist der Nachfolger von DUV
GAA von FinFet
Herzlichen Dank, genau das hab ich zusammen geworfen. Dachte das FinFet und DUV sowie GAA und EUV zusammen gehören. Das man die auch übergangsweise Mischen kann war mir neu.
Thx.
 
  • Gefällt mir
Reaktionen: Rock Lee
DarkerThanBlack schrieb:
Es geht um die Signalintegrität welche durch die Verdopplung oder gar Verdreifachung der Schaltungen an Parität gewinnt.
Du meinst, dass sich in der Elektronik die Signalintegrität dadurch erhöhen lässt, indem man durch erhöhte Transistorzahl divergierende Laufzeiten und erhöhte Einstreue/Übersprechffekte un Hotspot- Bildung in einen Schaltkreis einbringt?

Hier sind die Abhängigkeiten/Beeinflussungsgrößen erklärt:
https://www.comsol.de/blogs/havent-cpu-clock-speeds-increased-last-years/

Im Schnitt sind bei nicht sonderlich komplexen Schaltungen inzwischen bei 10GHz:
https://www.electronicdesign.com/te...-10-ghz-with-fixed-and-floating-point-support

Das widerspricht seiner These, dass mit steigender Anzahl an Schaltungen höhere Taktungen möglich sind.

Hier auch aus dem WIKI dazu:
Die meisten komplexeren integrierten Schaltkreise erfordern ein Taktsignal, um unterschiedliche Teile der Chips zu synchronisieren und Gate-Delays auszugleichen. Da diese Bauelemente aufgrund des technischen Fortschritts sowohl immer komplexer als auch tendenziell schneller werden, wird die Lieferung eines akkuraten und überall gleichen Taktsignals an alle Schaltkreise für die Chipentwickler zu einer immer größeren Herausforderung. Das Paradebeispiel für solche komplexen Chips sind Mikroprozessoren, die zentralen Bestandteile moderner Computer.

Größere Herausforderung? Wieso- Laut Deiner Aussage ist ja die Signalintegrität höher...

DarkerThanBlack schrieb:
Um es einfacher zu verdeutlichen. Ein ganz ganz simples Beispiel.
Du hast eine CPU mit 16 Kernen. Benötigst aber nur 8 Kerne um eine Aufgabe zu erledigen.
Da können dann die 8 langsamsten Kerne aussteigen, aber trotzdem erfüllt die CPU die Aufgabe mit dem höchsten Takt und Geschwindigkeit.

Dann gebe ich dir das Beispiel, warum Dein Beispiel genau für mein Auführungen hier stehen.
Deine Behauptung ist, dass sich die Taktzahl bzw. die Signalintegrität mit hinzufügen von Transistoren steigern lässt.

Warum aber schalten moderne Prozessoren Deinem Beispiel gemäß wenn möglich Kerne bzw. Transistoren ab? Und warum erreichen sie dann auf einem Kern (die meisten Transistoren abgeschalten) den höheren Single- Core Boost und wieso ist es nicht umgekehrt? Lt. Dir müsste ja Allcore, also der Einsatz von deutlich mehr Schaltungen zum gewünschten Takterfolg führen.

Hotspot- Bildung? Taktintegrität bei großer Chipfläche/Sync aller Cores, Übersprechen, Elektromigration, grundlagen der Elektrotechnik?
Alles einfach so vom Tisch gewischt?

Jetzt bin ich auf eine tiefgreifende Ausführung die Gegenteiliges herausstellt, gespannt....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derSafran
M1ximili1n schrieb:
Tippe auf 10-15nm (in der Realität) als harte physische Grenze. Das sind 100-150 angström (100pikometer), Atome liegen etwa in dieser Größenordnung...aktuell sind wir wie gesagt bei etwa 40nm.
Ein Silizium-Atom ist 0,1nm breit. Hier ist auf jeden Fall die absolute Grenze für die Strukturbreite.
Wie weit runter kann man gehen? 1nm? 0,5nm? 0,3nm?
 
.Sentinel. schrieb:
Hotspot- Bildung? Taktintegrität bei großer Chipfläche/Sync aller Cores, Übersprechen, Elektromigration, grundlagen der Elektrotechnik?
Alles einfach so vom Tisch gewischt?

Jetzt bin ich auf eine tiefgreifende Ausführung die Gegenteiliges herausstellt, gespannt....

Weil du es wieder und wieder nicht verstehen möchtest. Das haben wir schon per PN diskutiert aber du offensichtlich nun das beleidigte Kind rauslässt und nun hier diesen Thread vollspamst...
All deine Links haben rein garnichts mit meiner Erklärung zutun.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Ich versteh nur Bahnhof. Man erhöht den Takt durch verdoppelung der Schaltungen?
Es wird durch die Miniaturisierung nicht potenziell schneller?
… Wenn das alles nur so einfach wäre. Er hat mit seiner Aussage nicht unrecht, wobei man da nicht von der Verdoppelung reden muss.

Das Thema ist komplexer, auch als die Beiträge, die du da angibst. Richtig ist, dass ein »kleiner« Transistor schneller schaltet, als ein größerer, genau so, dass mehr Transistoren langsamer schalten müssen als ein einzelner.

Aber in den kleineren Strukturbreiten kommen halt nun auch noch weitere Effekte hinzu, die die Taktfreudigkeit der Transistoren noch etwas weiter bremsen: Leckströme, die sorgen nämlich dafür, dass kleine Transistoren in komplexen Schaltungen noch »langsamer« schalten, als sie eventuell könnten. Leckströme setzten nämlich gerne mal die kleinen Transistoren so unter Druck, dass diese nicht schalten wollen oder der nachfolgende Transistor nicht merkt, dass sein Vorgänger geschaltet hat und er schalten muss. Die Leckströme und das damit verbundene Signalrauschen sorgt dafür, dass eine komplexe Schaltung eventuell nicht so schnell schaltet, wie der Prozess es eigentlich zulassen würde.

Und genau da setzt es dann an: Es gibt verschiedene Wege Leckströme zu »minimieren«, aber man kann in einer komplexen Schaltung nicht jeden dieser Wege gehen. So kannst du in einer komplexen Schaltung den Abstand zwischen den einzelnen Transistoren nicht beliebig wählen, um die Leckströme zu minimieren, die das Signalrauschen aus lösen und damit den maximalen Takt der Schaltung als ganzes begrenzt.

Wenn die »Minimierung« nicht funktioniert, gibt es aber eben einen weiteren Weg: Es gibt kritische Bereiche in solchen komplexen Schaltungen und in diesen Bereichen kann man Transistoren redundant auslegen, so wird ein Signal eben nicht mehr nur von einem Transistor an den nächsten weiter gegeben, sondern zum Beispiel über zwei Transistoren. Man nutzt hier dann aus, dass der auftretende Leckstrom durch den höheren Takt immer nur »einen« der beiden kritischen Transistoren blockiert, nicht beide, der nachfolgende Transistor bekommt so also sein Signal und weiß, dass er schalten muss.
 
  • Gefällt mir
Reaktionen: .Sentinel. und DarkerThanBlack
Genau so ist es. Mein Fehler war, ich bin einfach kein guter Lehrer. 😉
Egal, ich hoffe das Thema ist nun wieder auf der richtigen Spur.
 
DarkerThanBlack schrieb:
Genau so ist es. Mein Fehler war, ich bin einfach kein guter Lehrer. 😉
Ach, bin froh, das damals, bevor ich nach Japan für ein Jahr bin, wenigsten etwas in E-Technik hängen geblieben ist, was das angeht. XD
 
  • Gefällt mir
Reaktionen: DarkerThanBlack
DarkerThanBlack schrieb:
Genau so ist es. Mein Fehler war, ich bin einfach kein guter Lehrer. 😉
Egal, ich hoffe das Thema ist nun wieder auf der richtigen Spur.
Indem Teralios letzendlich genau das bestätigt, was ich hier schreibe und sieht in welchen Kontext ich das setze?

Und auch im Anschluss auf vernünftige Art und Weise ein Zusatzszenario beschreibt?
 
Zuletzt bearbeitet: (Text abgemildert)
UrlaubMitStalin schrieb:
Ein Silizium-Atom ist 0,1nm breit. Hier ist auf jeden Fall die absolute Grenze für die Strukturbreite.
Wie weit runter kann man gehen? 1nm? 0,5nm? 0,3nm?
1angströmm=0,1nm=100pikometer
 
UrlaubMitStalin schrieb:
Ein Silizium-Atom ist 0,1nm breit. Hier ist auf jeden Fall die absolute Grenze für die Strukturbreite.
Wie weit runter kann man gehen? 1nm? 0,5nm? 0,3nm?

Naja mit den aktuellen Materialien kann man noch so weit runter bis irgendwann man irgendwann mit Quanteneffekten zu kämpfen hat und sich dann geeignetere Materialien für die Schaltungen suchen muss um die Grenze noch weiter zu drücken.

Marcel55 schrieb:
Tjoa irgendwann ist halt schluss mit höher, weiter, schneller, kleiner.
Dann müssen wir uns einen anderen Weg des Fortschritts suchen.

Und das wird irgendwann in Form von effizienteren Architekturen kommen. Und ich meine damit nicht nen Wechsel von z.B. x86 auf ARM sondern neuronale Netze deren Rechenleistung (und Effizienz) die aktuelle Technik um einiges übersteigen sollte. Die Anfänge davon finden sich ja inzwischen schon in aktuellen Chips wieder.
 
und was können diese neuronale Netze,wandern diese dann imemr wieder im Chip hin und her oder was machen die denn so und bei welchem Produkt ist denn sowas schon bemerkbar?
 
Zurück
Oben