News IBMs halbe Schritte: Nach 32 kommt erst 28 nm

Hoffmer mal das bald was in Richtung Quantencomputer und/oder DNS Computer kommt :p
 
das ist doch ob von ibm, hauptsache ich habe irgendwann mein 16nmbzw 12nm cpu und gou im rechner^^
 
Ich würde sehr stark davon ausgehen, dass diese Ankündigung von IBM was mit den Lithographie-Technologien bei diesen Strukturgrößen zu tun hat.

Intels aktuelle Fertigungsumstellung von "trockener" Lithographie auf Immersionslitho hat den Hintergrund der Einführung der 32nm-Fertigung. Allgemein ist heute noch nicht bekannt, ob auch noch 22nm mit Immersionlitho machbar ist. Aber ähnliches wurde bereits bei 45nm und 32nm vermutet, doch wo dann die Tool-Ausrüster durch geschicktet "Tricks", wie "double-patterning" und "double-exposure" noch so einiger an Overlayperformance aus den aktuellen Immersionsanlagen herausgeholt haben.

Nun steht ja eigentlich der Umstieg auf EUV-Lithographie an, der bereits für 32nm hätte eingesetzt werden sollen. Technologische Schwierigkeiten haben aber hier zu Verzögerungen geführt, so dass momentan von 2011 die Rede ist, dass der Prozess "serienreif" ist. Damit würde IBM nämlich, zur Absicherung der Fertigungsrisiken, eher auf einen Halbschritt setzen bei einer solchen drastischen Umstellung der Fertigungstechnologie.
Intel hingegen wird noch versuchen wollen 22nm aus der Immersionslito heraus zu kitzeln um dann umzustellen. Was aber sicherlich noch nicht klar ist, ob EUV wirklich kommen wird. Es gibt auch noch konkurrierende Prozesse wie Nanoimprint oder Lithographien mit Mirkospiegelarrays.

Na ja, lassen wir uns überraschen. Auf jeden Fall wird es spannend, was nach 32nm kommt. Ein bisschen Sorgen bereit mir nur die Ankündigung, dass IBM, wo ja Amd von abhängig ist, etwas bremst. Demnach wird die 32nm-Einführung bei Amd in dem Jahr liegen, in dem Intel bereits 22nm einführen möchte. Das wäre wieder ein Ausbau des technologischen Vorsprungs. Aber mal abwarten, ob das wirklich so kommen mag.
 
Welcher Konsumer braucht eigentlich noch mehr Leistung ? und wofür ?

Esst lieber mal nen Apfel ....
 
@ Denahar: Die Immersionslithografie hat schon noch etwas Potential.

EUV ist - zumindest was die Machbarkeit betrifft - schon jenseits der 22 nm-Technologie "verbannt" worden.
 
Zuletzt bearbeitet:
@Mr. Snoot: Natürlich gibt es bereits Teststrukturen mit weniger als 32nm Strukturbreiten. Ich habe selbst (persönlich) am belgischen IMEC solche Technologien und Prozesse beobachten können, die es konnten.

Wie kämst du aber darauf, dass EUV "verbannt" ist? Zufällig komme ich eben aus dieser Branche und weiß "aus zuverlässigen Quellen" eigentlich recht Gutes und Zuversichtliches über die Einführung von EUV zu berichten. Ich möchte und kann auch nicht weiter hier in Details gehen (gerne per PN wenn erwünscht).
Worauf begründen sich denn deine Aussagen und Ansichten bezüglich EUV?
 
Zuletzt bearbeitet: (Schreibfehler)
Nicht verbannt im Sinn von kommt nicht, sondern im Sinn von kommt wohl nicht bei 22 nm, sondern erst bei kleineren Strukturen. Derzeit scheinen die Kosten für die Serienfertigung mit Double Patterning noch zu hoch zu sein, aber da wird sich noch was tun, um die Umstellung auf EUV möglichst lange hinauszuzögern. Das ist das, ich dazu sagen kann. Komme nämlich auch aus der "Branche" ;)


Das Institut heißt aber schon noch IMEC, oder? :)
 
Zuletzt bearbeitet:
@Mr. Snoot: Na ja, ASML und Co. planen jedenfalls fest mit Einführung von EUV Anfang des kommenden Jahrzehnts. Sicherlich wird man noch einiges aus DE/DP bei den TwinScan-Maschinen in Immersionslito herausholen können, aber ich habe da langsam meine Zweifel, dass es noch viel sein wird.
Sicherlich hat man der "klassischen" Lithographie bereits für einigen "nodes" das Ende vorhergesagt, aber bei dem Thema "Overlayperformance" war ich vor einigen Jahren zu Hause.

Und ja, mein Schreibfehler. Es heißt IMEC in Leuven. Das andere Alpha-Tool steht übrigens in Albany, USA, falls es dich interessiert. Schreibe mir vielleicht mal bitte, in welchem Zusammenhang du mit dieser "Branche" zugegen bist, dass würde mich sehr interessieren. Danke!
 
abwarten und Tee trinken. Ich bin jetzt mit 45nm CPU's zufrieden und bis jetzt keine Abstürze und sonst was gehabt. Go IBM , GO
 
Zuletzt bearbeitet: (ein ! pro Satzende langt)
Ich sehe den Sinn irgendwie gar nicht mehr die Strukturen immer mehr zu verkleinern. Bisher hat das Sinn gemacht um zum Beispiel aus rucksackgrossen Mobiltelephonen der ersten Generation die heutigen kleinen leichten Dingerchen zu machen. Computer sind deswegen nicht mehr 3 Stockwerke hoch und brauchen nicht mehr ein eigenes Kraftwerk.

In den letzten Jahren funktioniert das aber nicht mehr. Trotz vieler Shrinks in den letzten Jahren sind Computer immer noch in ATX Gehaeusen verbaut , man hat als User keinerlei Vorteil mehr von dieser Miniaturisierung. Selbst Energie spart man dadurch nicht da der geringere Grundbedarf der neuen Technik durch hoehere Taktungen wieder wettgemacht wird.
Einzig der Hersteller zieht seinen Nutzen aus immer kleineren Strukturen .Pro Wafer passen dann sehr viel mehr Chips drauf als vorher was die Wirtschaftlichkeit des neuen Prozesses natuerlich steigert. Bisher ging das alles noch ohne groesseren Huerden immer kleiner.
Ich bin sicher das Wege gefunden werden alle moeglichen Probleme und theoretischen Limits in Zukunft zu ueberwinden um noch kleinere Strukturen zu erzeugen. Es ist aber wahrscheinlich das dafuer erheblicher Mehraufwand in der Produktion betrieben werden muss. Die Hersteller werden sich dann fragen ob sie teure 5nm Chips produzieren wollen oder lieber die alten 15nm Sachen die dann unterm Strich guenstiger sind.Trotz der erheblichen kleineren Strukturen ist die Platzersparnis am Ende aber immer noch im Bereich von Quadratmillimetern,maximal Zentimetern.Ausser bei medizinischen Implantaten sehe ich keine Anwendung bei der diese Ersparnis eine Rolle spielen wuerde.
 
Zuletzt bearbeitet:
@ Bullrun: Interessante Gedankengänge, allerdings glaube ich dir unterlaufen ein paar Denkfehler.

BullRun schrieb:
Ich sehe den Sinn irgendwie gar nicht mehr die Strukturen immer mehr zu verkleinern.

Mehr Transistoren auf gleicher Fläche -> Mehr Leistung, geringere Spannung zum schalten der Transistoren nötig -> Weniger Leistungsaufnahme (sofern man natürlich Leckströme etc. in Griff bekommt).

BullRun schrieb:
Bisher hat das Sinn gemacht um zum Beispiel aus rucksackgrossen Mobiltelephonen der ersten Generation die heutigen kleinen leichten Dingerchen zu machen.

Also ich denke das shrinken dient schon lange nicht mehr dazu nur die Geräte kleiner zu machen. Eine Sockel 775 CPU braucht ziemlich gleich viel Platz egal, ob sie in 90nm, 65nm oder in 45 nm gefertigt wurde. (Die dazugehörige Kühlung unterliegt aber grössentechnischen Schwankungen)

BullRun schrieb:
In den letzten Jahren funktioniert das aber nicht mehr. Trotz vieler Shrinks in den letzten Jahren sind Computer immer noch in ATX Gehaeusen verbaut , man hat als User keinerlei Vorteil mehr von dieser Miniaturisierung.

Siehe oben

Ehrlich gesagt sehe ich denn Zusammenhang nicht ganz zwischen kleineren Strukturbreiten und der Tatsache, dass man immer noch seine Komponenten in ein ATX Gehäuse unterbringt. Das Shrinken hat (heute zumindest und im Desktopbereich) NICHT den Sinn und Zweck dir deine Mühle kleiner zu machen. Wenn die Teiler immer kleiner werden würden, dann würden dir irgendwann deine Notebooks unter den Fingernägeln kleben und man würde sie nicht mehr rausbringen. ;) Geschweige denn den Spass beim Tippen.

Allerdings gibt es auch heute immer kleiner werdende PC Lösungen. (Nettops etc.)

BullRun schrieb:
Selbst Energie spart man dadurch nicht da der geringere Grundbedarf der neuen Technik durch hoehere Taktungen wieder wettgemacht wird.

Wenn du dich darauf beziehst, dass ein bis zum Erbrechen ausgestattetes System gleich viel bzw. sogar mehr Leistungshunger hat als eines vor 5 Jahren, dann ist das korrekt. Allerdings kann man heute auch einen Officerechner basteln der weniger Energie verbraucht (verbrauchen klingt so doof), als ein Officerechner von vor ein paar Jahren, der mit weniger Rechenleistung gesegnet war. Insofern ist gewisses Einsparpotential durchaus vorhanden. (Beispiel: Den meisten Menschen mit einem Uralt Pentium IV System mit 3xx Watt Verbrauch würde Leistungsmässig auch ein 30 Watt Nettop reichen. Nur rein hypothetisch betrachtet)

Und btw CPUs mit verschiedenen Architekturen kann man anhand der Taktraten kaum vergleichen und Hertzmässig stehen wir schon lange bei 3.x GHz also wahnsinnig hochgetaktet wird auch nicht mehr.

BullRun schrieb:
Einzig der Hersteller zieht seinen Nutzen aus immer kleineren Strukturen .Pro Wafer passen dann sehr viel mehr Chips drauf als vorher was die Wirtschaftlichkeit des neuen Prozesses natuerlich steigert.

Und der Endkunde, der immer mehr Leistung (pro Watt aber auch absolut) kriegt.

BullRun schrieb:
Bisher ging das alles noch ohne groesseren Huerden immer kleiner.
Ich bin sicher das Wege gefunden werden alle moeglichen Probleme und theoretischen Limits in Zukunft zu ueberwinden um noch kleinere Strukturen zu erzeugen. Es ist aber wahrscheinlich das dafuer erheblicher Mehraufwand in der Produktion betrieben werden muss. Die Hersteller werden sich dann fragen ob sie teure 5nm Chips produzieren wollen oder lieber die alten 15nm Sachen die dann unterm Strich guenstiger sind.

Vielleicht interessant: Moore's Grafik

Ich habe mal einen interessanten Artikel gelesen über das Verhältnis zwischen den Kosten die in eine neue Fabrik gesteckt werden müssen im Vergleich zur immer kleineren Fertigungsgrössen (mit den immer komplexeren Objektiven zum belichten der Wafer).
Beides waren glaube ich exponentielle Kurven. Heute ist dies aber nicht mehr so, da die Produktionsstätten unbezahlbar wären. Das es sich irgendwann nicht mehr lohnen könnte kleinere Strukturen auf die DIEs zu pflanzen könnte ich mir durchaus vorstellen, davon abgesehen, dass es auch absolute physikalische Grenzen gibt. Bisher waren die Probleme die zu lösen waren nie unlösbar und konnten immer überwunden werden.

BullRun schrieb:
Trotz der erheblichen kleineren Strukturen ist die Platzersparnis am Ende aber immer noch im Bereich von Quadratmillimetern,maximal Zentimetern.Ausser bei medizinischen Implantaten sehe ich keine Anwendung bei der diese Ersparnis eine Rolle spielen wuerde.

Es geht, ausser bei medizinischen Anwendungen o. ä. auch nicht um die absolute Platzersparnis auf dem DIE, aber das ist Wiederholung. ;)

@Topic: Jetz stehen wir bei 45nm und sollten erstmal die 32nm erwarten. Bin äusserst gespannt, ob Intel im selbstauferlegten Fahrplan bleiben können, und ich hoffe es im Sinne des Fortschritt eigentlich auch. Aber so ein Zwischenschritt, wie seitens IBM macht auch durchaus Sinn.

@ Me Weniger betrunken Beiträge schreiben. Mehr schlafen!

So long

MfG rubski
 
Zurück
Oben