News Intel mit 32 nm ab 2009

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
15.186
Die Digitimes berichten unter Bezugnahme auf aktuelle Intel-Roadmaps, dass der Halbleiter-Produzent aus dem Silicon Valley ab dem Jahre 2009 Prozessoren in der 32-nm-Technologie fertigen wird. Nach einem schleppenden Wechsel von 130 nm (Northwood) auf 90 nm (Prescott) Anfang 2004 und dem Umstieg auf 65 nm (Yonah) Anfang 2006 geht es über 45 nm im 2. Halbjahr 2007 zügig weiter.

Zur News: Intel mit 32 nm ab 2009
 
wo sind eigentlich die grenzen?
ich mein irgendwann gehts doch einfach nichtmehr kleiner oder?
 
irgendwann sind die grenzen von silizium erreicht! Dann wird ein neues Halbleiterelement oder ein Werkstoff benötigt.
 
naja ich glaub mal wenn die nm-technik noch weiter entwickelt wird, kann man das zeugs ganrnicht mehr richtig kühlen...
 
Was genau bringt es einem es kleiner zu machen? Ich höre immer Strom und Wärme sind weniger. Aber es sind doch mehr drauf.. demzufolge wesentlich höherer Ausschuss oder nicht? Und wieso brauchen mehr Transistoren weniger Strom? Und inwiefern soll man Wärme verstehen. Das alles ist schon fast ~Magie~ ^^
 
Die Grenze ist mit herkömmlichen Methoden eh schon fast ausgereizt. Aber wie war das nochmal? AMD wird bei 65 nm teilweise schon ein SiGe Verfahren anwenden. Damit ließe sich ein Produktionsverfahren anscheinend länger ausreizen (43 % mehr Transistorenleistung liest sich sehr gut ^^).
 
Nehalem?!

War das nicht einer dieser Überdimensionierten NetBurst-Cores?

Einer der Tejas-Nachfolger, und selbst der wurde ja gecancelt...

Meine mich daran erinnern zu können.
 
schönes teil
 
Zuletzt bearbeitet:
@ 9: rofl was du für blödsinn schreibst.

absolut gesehen hast du recht mit deinem lagerfeuer-streicholzvergleich. aber hier gehts um die wärmedichte, nicht um de absolute wärme. theoretisch bleibt die wärmedichte auch die gleiche, wenn man die transistoren kleiner macht, aber in diesem bereicht spielen dann schon andere größen eine zunehmende rolle, hauptsächlich leckströme übers gate. seit 90nm sind diese ein ausgewachsenes problem (siehe prescott), denen man mit verschiedenen techniken zu leibe rücken muss.

und da du jetzt weißt, dass die wärmedichte bei kleiner strukturen auch mit ansteigt, weißt du, dass kühlsysteme immer leistungsfähiger werden müssen. oder stromspartechniken in die prozessoren eingebaut werden, oder oder oder...
 
Viel interessanter finde Ich ja die Anküdigung von Intel, nun alle 2 Jahre eine neue Architektur zu entwickeln.
Also 2008 mit Nehalem und 2010 (2009?) mit dem Gesher, das ist schon eine sehr ehrgeizige Roadmap!

Angesichts der Tatsache, das Intel selber als letzte Architektur die Netburst entwickelt hat und der Banias, Yonah, Merom, Conroe usw. von dem kleinen Ableger in Israel stammen, lehnen die sich ganz schön weit aus dem Fenster!

Ach ja: Die Grenzen von Silizium dürften so bei 10 nm liegen, ab dieser Größe stören quantenmechanische Effekte (z.B. Tunneleffekt) die Funktion der Schaltungen. Vielleicht sind ja Kohlenstoff-Nanoröhrchen noch eine Alternative, um kleinere Strukturen zu erreichen, aber ich kann mir nicht vorstellen, wie man hunderte Millionen Röhrchen exakt plazieren und verschalten kann!
Naja, die Zeit wirds zeigen!;)
 
diese news kann man getrost als Spekulation abtun.
was in 3 Jahren ist konnte noch nie genau vorhergesagt werden.
bis 45nm nutzt intel noch die normale Belichtungstechnologie.
ab 32nm soll die EUV(extrem ultra violettes licht) verwendet was noch diverse probleme bereitet(geht nicht durch linsen->spiegel nötig)!
an einige vorposter:
kleinere strukturen bedeuten weniger benötigte spannung-> also weniger verbrauch pro transistor.
jedoch erhöht sich die anzahl der transistoren mit jeder neuentwicklung(HT, SSE, 64BIT, vanderpool,...)
so dass der verbrauch nicht sinken wird.
 
Zuletzt bearbeitet:
Eben nicht, kleiner produziert Dies kann man bei gleichen Stromverbrauch schlechter kühlen da mehr Watt pro Fläche anliegen.
Doch glücklicherweise werden, bei kleineren Herstellunsgverfahren, die Leiterwege kürzer also sinkt der Stromverbrauch in der Regel. Dies ist aber nicht zwangsläufig der Fall siehe Prescott.

Ich denke durch die kleinere Fertigung wird es in Zukunkft möglich sein sehr viele Dies auf einen Prozessor zu packen, so dass Leistung nicht mehr bloß durch die Mhz erreicht wird, so wie es zur Zeit ist.
 
@ 11: ich sag nur stichwort quantenpc :)
ok das ist noch etwas sehr zukunftsmusik aber ich denke spätestens in 10 jahren muss man sich auf grundlegend neue techniken konzentrieren.

immer mehr leistung durch noch kleineren fertigungsprozess, noch ein paar mehr mhz und noch mehr kerne wirds auf dauer nicht bringen.
 
@14: hrr hrr Quanten-Computer ^^
Hast du schonmal gelesen wie die Dinger "voraussichtiglich" gekühlt werden müssen?
Wenn ja, dann weist du ja sicher schon, dass wir Otto-Normal-Benutzer wohl nie einen selber besitzen werden ;)

Vertigungstechnik:
Ich meine gelesen zu haben, dass sogar 6 nm möglich sein sollen.
Zudem glaube ich, dass ein Prozessor mit 110Ghz (den gab es hier oder woandern in den News) mit dieser Technik hergestellt worden ist. Was wohl aus dem geworden ist ^^

mFg
 
@NoD.sunrise: Naja, stimmt schon mit den 10 Jahren, aber mit Sicherheit kein (!) Quanten-Computer.

Aber wie Nurve sagte, so etwas wird es voraussichtlich nicht für den privaten Anwender geben. Zwar nicht aus Kühlungsgründen (welche sollen das denn sein?), sondern weil das ganze System extrem schwer zu stabilisieren ist.
Die Überlagerung der Zustände von den Qubits, die für das "Funktionieren" des Computers verantwortlich sind, wird ja durch jegliche Messung sofort zerstört. Alleine dafür sind schon superaufwendige Systeme nötig!
Zusätzlich zerstört schon die kleinste Erschütterung oder Temp.-Änderung ebenfalls den Zustand der Überlagerung.

Wenn es in 15-20 Jahren (meine Schätzung) die 1. Quanten-Computer gibt, werden vor allem das Militär und die Forschung die Kunden sein, aber nicht der 0815-Anwender, da könnt Ihr sicher sein!
 
Zuletzt bearbeitet:
@nurve: 110 ghz... das war afaik ein einzelner transistor, den die auf diesen frequenzen hatten oder?
netburst sollt odhc bis 10ghz gehen lol...

ansonsten mit den yonahs etc haben wir doch die architketur vom p2/p3 zwar generalüberholt, aber da... wenn ich mich nicht stark irre gibts die architektur damit 8 Jahre, die core-architektur basiert da auch noch drauf..., und das wirds mindstens noch 2 jahre geben... von wegen alle 2 jahre komplett neu hrhr
 
Nein, die Pentium-Pro-Archiotekturfamilie gibt es schon 10 Jahre, aber bei AMD hat sich das auch in ähnlicher Weise evolutioniert. ;)
 
Geringere Strukturbreiten haben eindeutig Stromspar- und Verlustleistungsbeschränkende-Vorteile.
Man benötigt nicht so eine höhe Spannung um ein Elektron von A nach B zu befördern, weil es für die Elektronen mit kleineren Leiterbahnbreiten immer "eindeutiger" wird, wohin so fließen sollen. Zwar gilt in der Elektrotechnik, dass mit zunehmendem Leiterbahnquerschnitt der Wiederstand sinkt, aber das gilt meines Wissens nach nicht für solche Mikroarchitekturen, denn hier hat ein höherer Querschnitt auch gleich noch den Nebeneffekt, dass es mehr Material zum erwärmen gibt -> und je wärmer das Material, desto größer der Wiederstand, desto größere Spannungen braucht man etc, desto wärmer wird das Material etc. Das hängt mit der "Eindeutigkeit der Fließrichtung zusammen". Je mehr Elektronen auf einem Leiter platz finden, desto mehr Chancen bzw. größere Flächen bestehen, dass eine Reibungung unter den Elektronen entsteht.

Zudem muss man sich vor Augen halten, dass wir eben nicht mit Quatensprüngen arbeiten, bei denen es nur eine 0 und eine 1 gibt (0 wird in der digitaltechnik mit einem Spannungspegel von 0,0 - 0,8Volt symbolisiert und 1 dann mit 1,3 - 1,75 Volt [korrigiert mich wenn ich die Werte jetzt falsch gewählt habe]). Zwischen der 0 und 1 muss ein Spannungsaufbau und -abfall entstehen und der ist nicht unendlich klein und Strom braucht auch ne gewisse Zeit, bis es durch einen Leiter geflossen ist (glaub das war pro cm-Draht etwa 1. Pikosekunde). Je größer die Strukturen desto größer die Verzögerungen und die Fehleranfälligkeit. Und da müssen dann Filter eingebaut werden, die auch wiederum Strom benötigen und Wärme produzieren. Je kürzer somit die Leiterbahnen umso weniger komplex die Filter und den Rest könnt ihr euch ja denken.
 
Die Grenzen liegen bei der Planckschen Länge, 10^-35cm (Oder m? Weiss ich jetzt nicht genau) Objekte mit kleineren Radien gibt und kann es nicht geben da sie nicht erfassbar wären.
 
Zurück
Oben