[F]L4SH schrieb:
Die Ersten haben schon bei 90nm etwas von Elektronenmigration gefaselt. Und davon hat man ja nie was gesehen. Wohl auch nicht un 28nm und weniger.
11nm wird auf jeden Fall noch mit bezahlbaren Mitteln möglich sein. Danach muss man halt schauen. Entweder steigert man die Effizienz der Architekturen oder wechselt halt auf neue Materialien.
Elektromigration tritt generell immer auf, auch wenn zumeist in kleinem Maßstab (erste Probleme damit gabs bereits in den 60ern). Je höher aber die Integration der Schaltkreise, also je kleiner die Strukturen, desto größer werden die Leistungs- und damit auch Stromdichten. Überhaupt ist die Elektromigration ja der Grund, weshalb Chips überhaupt ausfallen. Dem konnte man in den letzten Jahren etwas entgegenwirken, indem man z.B. auf Kupferleiter setzt, denn die sind dafür nicht so anfällig, wie ihre Kollegen aus Aluminium.
Was du aber wohl eher meinst, ist das Tunneln von Elektronen durch das Gate-Dielektrikum (Dielektrikum ist ein Isolationsmaterial) und als deren Resultat (extrem) ansteigende Leckströme. Dies war lange Zeit kein Thema, schaut euch mal die Kühlung der ersten Pentiums und so an. Da kam man mit den Dicken des Gatedielektrikums noch nicht in die Bredouille, denn je dicker es ist, desto unwahrscheinlicher ist das Tunneln eines Elektrons durch es hindurch. Im Gegenteil, es war sogar erwünscht, es zu verringern, um so höhere Schaltfrequenzen zu erreichen (
"je dünner, desto größer die Oxidkapazität und damit auch die gegenüberliegende Inversionskapazität im Kanal zwischen Source und Drain. Je größer diese Kapazität, desto größer ist der Strom, der durch den Transistor fließen kann und desto schneller kann er (an ihn angeschlossene Gates) schalten" --> der Absatz über Bild 5).
Fakt ist aber, dass z.B. die großen Hitzprobleme bei Intels letzter Netburst-Generation eben durch diesen Effekt entstanden sind. Man hatte die Dicke des Dielektrikums immer weiter reduziert, was die Wahrscheinlichkeit des Elektronentunnelns erheblich erhöhte, weswegen ein nicht mehr unbeträchtlicher Teil Elektronen nur noch Leck-/Verlustströme verursachte.
Ein Ansatz, auf den man bei Intel seit der 45nm-Fertigung setzt, ist die Verwendung eines
High-K-Gatematerials (K steht für die
Dielektrizitätszahl "klein Epsilon"). Das würde zwar theoretisch zu größeren parasitären Kapazitäten führen, jedoch erhöht man gleichzeitig die Dicke des Dielektrikums und bekommt so bei gleichbleibender Kapazität seine Leckströme in den Griff.
https://www.computerbase.de/2007-10/test-intel-core-2-extreme-qx9650/4/
http://de.wikipedia.org/wiki/MOSFET#Leckstr.C3.B6me
kaigue schrieb:
Das hat wenig mit ET zu tun als mit Werkstoffphysik
JackBlackstone schrieb:
da ist sehr wohl et.
elektronik / halbleitertechnik, kann man sich bei einigen unis als schwerpunkt setzen
Also, das Gebiet nennt sich Festkörperphysik, zumindest für die elektrischen Grundlagen der Halbleitertechnik. Aber natürlich spielt auch die Materialwissenschaft eine sehr wichtige Rolle, schließlich geht es auch um Kompatibilitäten der einzelnen Stoffe untereinander, sowie den Herstellungsprozess und durch die Prozessparameter beeinflusste sonstige physikalische Größen. Enthält dann schon Teile der Verfahrenstechnik.
Und die ET bezeichnet einen etwas anders gearteten Fachbereich. Halbleitertechnik ist, meiner Meinung nach, wenn dann eher unter IT einzuordnen oder besser gleich als eigenständiger Fachbereich zu betrachten, eben weil es durch die Herstellung ganz andere Disziplinen einbezieht. Kleines Beispiel: Man spricht ja auch von der Mechatronik und versucht diese nicht speziell dem Maschinenbau oder der ET unterzuordnen.
Brummelchen schrieb:
... doch Moores Law, sagt doch aus, dass es immer eine Verdopplung geben muss oder? Warum unterzieht man sich solch einem Druck? Man könnte es ja durch "kann"ersetzen oder ist es dann nach Moore nicht mehr Lohnenswert?
Zumal ich den Eindruck habe, dass die Software dazu ja noch um einiges hinterher hinkt, denn Software mit optimaler Quad Untersützung, ist doch mehr die Ausnahme, oder ist die im Profi Bereich schon Usus?
Moore's Law ist kein Gesetz, sondern Erfahrungswert/Prognose. Wer vorn mit dabei bleiben will, der muss aber schon mit diesem Tempo Schritt halten können.
Und ja, auf Seiten der Softwareentwicklung existiert wohl auch noch ein riesiger Spielraum, Stichwort Skalierung und effizientere Ressourcennutzung. Warum kommt Win7 bei im Vergleich zu Vista in etwa gleichem Funktionsumfang ne Ecke schneller daher?! Arbeitsgeschwindigkeitsmäßig betrachtet, nicht von den dann darauf ausgeführten Progs her.
Sherman123 schrieb:
1. Was haben Transistor Schaltzeiten mit CPU Taktfrequenzen zu tun?
2. Was hat in diesem Thread Antiglobalisierungspropaganda zu suchen?
3. Das Video "Story of Stuff" ja mal kompletter Schwachsinn - und Leute die es nicht besser wissen saugen es auch noch auf und bauen diese Infos in ihre Argumentation ein....
zu 1. Hmm, 1:1??!!!
Was ist denn z.B. mit dem L1-Cache?! Der wird mit dem vollen Prozessortakt betrieben. Und so nen Cache enthält wohl auch ne Menge Transistoren.
zu 2. Im Kontext betrachtet war es die Antwort auf eine recht irrsinnige Behauptung eines anderen Boardies.
zu 3. Und wenn wir schon mal abseits des Themas sind: Was hat hier Anti-Anti-Globalisierungsstimmungsmache zu suchen?
Erstell doch bitte ein extra Thema dazu und dann kann sich hier jeder darüber auslassen.
Achja
Sherman123 schrieb:
... und Leute die es nicht besser wissen saugen es auch noch auf und bauen diese Infos in ihre Argumentation ein....
Na zumindest versuchen sie zu argumentieren, was man ja nicht von allen Gruppen behaupten kann.