mich wuerde auch interessieren was nach 22nm kommt ... sollte die vorherrschende Ansicht stimmen ist mit der bestehenden Fertigungstechnologie kein weiterer _signifikanter_ Shrink moeglich .Wobei sich die Frage stellt wozu das Ganze noch mehr miniaturisieren ...? In der Vergangenheit hat das Sinn gemacht , die Rechenleistung von frueher 3 Gebaeudeetagen steckt jetzt in Armbanduhrgroesse.Platz und Energiebedarf ist dabei drastisch gesunken.Allein in den letzten 30(?) Jahren gings vom 8086 ( ~5MHz Takt, 5V VCore) zum heutigen Penryn (~4GHz , 1.22V) staendig bergab mit dem Energiebedarf und rauf mit der Leistung.Aber in den letzten Jahren hat das Ganze meiner Ansicht nach mehr und mehr seinen Sinn verloren.
Ein 130 nm Northwood wurde 2002 mit 1,5V (?) betrieben , der heutige Penryn mit 3 mal feineren Strukturen (45nm) braucht immer noch 1,225V .Alle Intel-Prozessoren der vergangenen Jahre hatten trotz mehrerer Shrinks eine aehnliche TDP von "um die 100W" ... vom oekonomischen Standpunkt des Endnutzers aus gesehen macht das also keinen grossen Sinn mehr. Ausserdem sind alle heutigen CPU`s bereits so klein das sie fuer den User nicht mehr zu handhaben sind.Die eigentliche CPU, das "Package" wird deswegen in vergleichsweise Riesengehaeuse eingebaut.Die letzten 5 Shrinks (seit Willamette ,2000,S423,180-200nm(?))sind rein platzmaessig beim User nicht angekommen und werden auch weiterhin nicht ankommen.Das Package muss in ein Gehaeuse eingebaut werden was der User einfach ausgedrueckt "ein-und ausbauen" kann.
Allein der Hersteller zieht seinen Vorteil aus immer mehr Die`s auf immer grosseren Wafern.Sollte sich aber der Herstellungsaufwand bei <22nm Strukturen angenommen vervielfachen bin ich mal gespannt wie gross die Motivation der Hersteller sein wird alles noch weiter zu verkleinern
Auf mittelfristige Sicht muss was grundlegend neues her, was meiner (unmaßgeblichen) Meinung nach die Abkehr von der x86 Kompatibilitaet bedeutet.Das gleiche alte Prinzip wird durch immer groessere und schnellere Caches "frisiert",schon jez wird die halbe Flaeche einer CPU vom Cache belegt.Eine richtig gute Sprungvorhersage wuerde viel mehr bringen , ist natuerlich nicht so leicht zu realisieren wie eine Verdoppelung des Caches.
Lange Rede ,kurzer Sinn: Natuerlich werden die naechsten Shrinks weitere Verbesserungen bringen , MultiCore CPU`s die im MilliVolt betrieben werden oder sowas.Wichtiger aber sollte sein _was_ auf dem "Die" vor sich geht,nicht die Groesse.