News IBMs halbe Schritte: Nach 32 kommt erst 28 nm

Rohirrim schrieb:
ich denk die entwicklung wird hin zu Graphene gehen.


http://en.wikipedia.org/wiki/Graphene

Dafür gabs jetzt den Körber-Preis und die eigenschaften lesen sich wie ein wunschkonzert;-)

ah mist^^ warst schneller xD

hab gestern erst ein kleinen Bericht auf tagesschau.de gesehn^^

ich denke auch das es dahin gehen wird, früher oder später ;)

€dit: oder auch 2 xD egal^^
 
Meiner Meinung nach, ist Graphen einer der interessantesten Stoffe, aus denen man Transistoren herstellen kann.
 
Auch wenn man mit Silizium in ein paar Jahren am Ende der Fahnenstange angelangt ist wird es immer weiter gehen, z. B. mit Graphen.

MfG Pantherfibel
 
Nun man hat da nicht nur mit den physikalischen Grenzen bei Silizium zu kämpfen. Was ich gehört habe, wird es bei reinem Silizium ab weniger als 20nm kritisch, weil dann die Isolationsschichten (für gewöhnlich SiO2) zu dünn ausfallen, sodass sich sogenannte "Leckströme" zu einem ernsthaften Problem entwickeln, da dann ein Großteil der Elektronen nicht auf der Leiterbahn fließen würde, die eigentlich für sie vorgesehen ist, sondern einfach munter quer durch den ganzen Chip fließen würden (bildlich ausgedrückt). Tunneleffekte spielen hierbei eine sehr große Rolle, je kleiner die Struktur wird, desto größer ist die Wahrscheinlichkeit, dass ein Elektron "einfach wegtunnelt".
Das ganze kann man noch in den Griff bekommen, indem man andere Materialien verwendet, aber auch diese Möglichkeiten werden irgendwann (nach derzeitigem Stand bei ca. 11nm) erschöpft sein.
Bis dahin hat man aber auch noch mit anderen Problemen zu kämpfen, nämlich werden solche Chips ja per Laser belichtet und normalerweise schafft man nur Strukturen bis zu einer Größe der Wellenlänge des Lichts. Das lässt sich mit einigen Tricks umgehen (zur Zeit nutzt man Laserquellen mit 120-130nm), aber auch da müssen in sehr naher Zukunft die "extrem Ultraviolett"-Laserquellen so weit gebracht werden, dass sie einsetzbar sind. Die arbeiten dann mit ca. 13nm und damit verschafft man sich wieder ein bischen mehr Luft.

Irgendwann wird man aber auf jeden Fall eine physikalische Grenze erreichen, aber bis dahin gibt es bestimmt die ein oder andere geniale Idee...derzeit schwirrt da ja einiges rum wie Kohlenstoff-Nanotubes oder sogar dem internen Informationsaustausch per Licht, womit Leiterbahnen sowieso der Vergangenheit angehören werden.

Ich werde mich einfach überraschen lassen und freue mich für die beteiligten Firmen, wenn diese Strategie mit den Zwischenschritten aufgeht. Der hört sich zwar nicht so gewaltig an, aber man bekommt schon durch die 4nm wieder eine ganz gute Menge mehr Chips auf einen Wafer und Waferfläche ist auch sehr kostbar, sodass - wenn alles gut läuft - die Entwicklungskosten schon wieder reinkommen sollten. Und der dadurch entstehende Wettbewerbsvorteil sollte wohl nicht zu verachten sein. Wenn die Firmen nicht davon ausgingen würden sie einen solchen aus ökonomischer Sicht wenig sinnvollen Schritt auch nicht machen.

EDIT: Da hab ich doch tatsächlich das Graphen verschwiegen...
 
Zuletzt bearbeitet:
Naja Graphen scheint vielversprechend zu sein.

Es dauert aber noch mindestens 4-5 Jahre bis man an die Grenzen von Silizium rankommt, also hat man Zeit diesen Stoff zu erforschen.
 
Zuletzt bearbeitet:
Bommel87 schrieb:
physikalisches limit = 0.1nm = eine Monolage, Atomdurchmesser...

Wollte auch gerade sagen, 1 Angstrom muss doch das Finale sein.

Was bedeutet eigentlich 1 full node step? Wie verkleinern die die Prozesse immer? Also wie groß ist die Schrittweite? Warum ausgerechnet 90,65,55,45,32,22,...
 
Wenn du es dir anschaust sind es 30-33%
Also ich würde spontan sagen, dass ein Step 1/3 ist.
Wobei 55 auch nur ein zwischenschritt war also kein full node step.
 
Bei der Fläche mag das sein, aber rein von der Fertigungsgröße ist das immer ~1/3 ;)
 
Nö, Graphen wird wohl die Zukunft sein.
Da hat doch erst gestern jemand einen Titel bekommen, der daran Forscht, und schon Transistoren (kleine natürlich) damit gefertigt hat.

Kaum wird mal irgendein Preis vergeben und in den heute-Nachrichten kurz berichtet, schon meinen alle, dass nur das die Zukunft ist und müssen nebenbei fallen lassen, dass auch sie sich damit auskennen. Der Kram steht völlig am Anfang. Klar, es kann der Durchbruch sein, viel wahrscheinlicher ist aber, dass wir nie wieder was davon hören.
Seit Jahren wird von den unglaublichen Möglichkeiten von Nanotubes gesprochen, ich kenne noch keine Anwendung. String-Theorie ist seit Jahrzehnten der letzte Schrei und hat noch gar keinen Kontakt mit der Wirklichkeit gemacht... ein Hype ist kein Durchbruch.
 
brabe schrieb:
Wie verkleinern die die Prozesse immer? Also wie groß ist die Schrittweite? Warum ausgerechnet 90,65,55,45,32,22,...
Der Faktor ist 0,7 - schien wohl am günstigsten zu sein in Anbetracht der Schwierigkeiten bei der Prozessumstellung auf kleinere Strukturen und den Fertigungskosten.
 

Anhänge

  • shrink.jpg
    shrink.jpg
    12,3 KB · Aufrufe: 621
Zuletzt bearbeitet:
Ich denke auch das man die Graphen-Geschichte abwarten sollte.
Man denke nur an die damaligen Erwartungen an die Fullerene.
 
Nicht vergessen, dass es auch noch Ideen wie Spintronic gibt, bei der man die Taktraten theoretisch drastisch erhöhen könnte und vlt. wirklich dreidimensional aufgebaute Prozessoren entwickeln könnte, ohne die Leistungsaufnahme und Abwärme elektronischer Schaltungen.

Mal sehen, was die Zukunft noch bringt. Auf Quanten- und Biocomputer setze ich voresrt jedenfalls nicht.
 
Denke für den Endanwender ist es egal ob nun über half oder nur full node steps gegangen wird.
Interessant ist es dennoch das Intel nur auf ganze setzt und IBM und Co. auf half nicht verzichten will.

Auch um das Ende des Verkleinerungsprozesses mache ich mir keine Sorgen. Selbst wenn das Ende der Fahnenstange erreicht wird und noch kein neuer massentauglicher Prozess ausgereift ist, kann man noch so viel optimieren um Leistung zu steigern bei geringeren Stromverbrauch.

Ob Nanotube oder Graphene die Zukunft ist, mal sehen. Beide basieren auf Kohlenstofftechnik und lesen sich beide recht interessant. Leider sind da nach gravierende Probleme die eine Massenproduktion noch mehr als fragwürdig erscheinen lässt.

Lassen wir uns überraschen was in 5-10 Jahren ist, geht ja recht fix um die Zeit ;)
 
Das mit den full-node steps ist doch,vermute ich, an das moorsche gesetzt angelehnt, weil Intel seit jahren stolz wie oskar darauf ist,dass man alle 2 jahre die größe der transistoren auf einer flächeneinheit halbiert.

wenn das mit den leckströmen bei zu kleiner fertigung stimmt haben wir vllt von intel bald den "Prescott 2" in den regalen stehen^^ naja ansonsten wie immer abwartern und tee trinken.
 
[Ironie]

Biocomputer fänd ich lustig.
Den gießt man dann, er wächst und bekommt mehr Leistung :)
Das wär doch mal was.

[/Ironie]

Aber im Ernst, ich denke, dieser half-note step wird wohl angestrebt, weil die Technik noch nicht so weit ist um nach 22nm weiter zu machen.
Ich vermute, so wollen sie einfach Zeit schinden.

Aber momentan freu ich mich erstmal auch 32nm;)
 
Wenn man den Schritt zu 22nm im selben Zeitraum vollziehen kann, dazwischen aber durch den Zwischenschritt durch den 28nm Schritt günstiger schnellere Chips produzieren kann, verschafft man sich in der Zeit durchaus einen Wettbewerbsvorteil.
 
Killermuecke schrieb:
Kaum wird mal irgendein Preis vergeben und in den heute-Nachrichten kurz berichtet, schon meinen alle, dass nur das die Zukunft ist und müssen nebenbei fallen lassen, dass auch sie sich damit auskennen. Der Kram steht völlig am Anfang. Klar, es kann der Durchbruch sein, viel wahrscheinlicher ist aber, dass wir nie wieder was davon hören.

Sehe ich auch so.

Man sollte sich in einem klar werden.
Die Halbleiterindustrie entwickelt immer kleinere Fertigungsprozesse nicht um den Endanwender in seinem Stolz zu stärken den kleinsten CPU zu besitzten.

Nein ! Es geht ganz trocken nur um die Fertigungskosten die durch eine Verkeinerung deutlich gesenkt werden können !

Sieht man sich einmal genauer um so erkennt man schnell das es mitlerweile eben deutlich mehr 4-Kerner-CPUs zur Auswahl gibt als noch vor ein paar Jahren und in Zukunft kommen schon 6 und gar 8 Kerner als Server zum Einsatz. Auch die GPUs sollen bald in Dual-Einheiten produziert werden.
Solche Viel-Kerner benötigen eben deutlich mehr Fläche welche nur mit der Schrumpfung des Fertigungsprozesses profitabel herzustellen sind.

Daher ist es höchst unwahrscheinlich das ein Hersteller plötzlich auf einen ganz neuen Zug aufspringt welcher erstmal ne menge Geld kosten wird.
Genauso gut könnte man sich fragen warum die Autoindustrie immernoch Fahrzeuge herstellen die mit fossilen Brennstoffen betrieben werden obwohl es schon lange preisgekrönte Alternativen gibt.

Es ist einfach das Profitabelste und durch den weltweiten globalen Markt die einzigste Möglichkeit überhaupt zu Produzieren um nicht in dieser Welt unter zu gehen.
Neue aufwendige und teure Innovationen haben da keinen Platz und sind dadurch jedenfalls zum Scheitern verurteilt.
 
Zuletzt bearbeitet:
Mr. Snoot schrieb:
Der Faktor ist 0,7 - schien wohl am günstigsten zu sein in Anbetracht der Schwierigkeiten bei der Prozessumstellung auf kleinere Strukturen und den Fertigungskosten.

Scheint wohl wirklich so zu sein, dass man die Rechenfläche pro Chip halbieren möchte je Schritt.
Danke an alle beteiligten "Rechner". Hätte ich auch selbst drauf kommen können, wenn ich mal darüber nachgedacht hätte.
 
Zurück
Oben