Wenn man die Verlustleistung optimieren kann und damit die Abwärme geht da sicherlich noch mehr. Ich denke die aktuellen Limits (auch 4 GHz galt lange als Barriere (ausser für Extrem-OC, jetzt brachte Intel doch eine CPU) gelten auch und vor allem aus wirtschaftlichen und ergonomischen Gründen. Man kann neue Fertigungsstrecken nicht aus dem Boden stampfen, Chipgröße soll handelbar bleiben, bessere Transistoren-Technologien wurden gerade erst erdacht, Kühllösungen sollen im halbwegs ergonomischen Rahmen bleiben).
Theoretisch geht noch mehr (z.B. hat die Uni von Georgia mit IBM schon einen Transistor bei >500 GHz zum Laufen gebracht [1], aber wer kann schon seinen PC auf 4,5°K kühlen...)
Limits entstehen auch dadurch, dass Elektronen beim State-Wechsel (on/off) die Leiterbahnen "erreichen"/"verlassen" müssen, vereinfacht gesagt: je dicker die Leiterbahn, desto länger dauert das. Daher schaffen Technologien im kleineren Maßstab bessere TDP und geringere Verlustleistung. Dazu muss aber die Chipfertigung kostspielig umgestellt werden, während die Multicore-Technologie im gleichen Fertigungsverfahren deutlich günstiger Leistungszuwachs bringt.
Das gleiche gilt für die Hitzeentwicklung: weitere Verkleinerung ist teurer als Beibehaltung der Fertigungsstandards. Ein Transistor gibt bei jedem Schaltvorgang Hitze ab, schaltet man den selben Transistor doppelt so schnell, gibt er eben entsprechend mehr Hitze ab, die vom Kühler und Lüftern abgeführt werden muss. Auch aus diesem Grund erreicht Extrem-OC unter flüssigem Stickstoff höhere Taktraten bei den gleichen Chips.
Bei Verkleinerung greifen irgendwann auch quantenmechanische Effekte, aber bis dahin ist noch Luft und das könnte Harald Lesch sicher besser erklären
[1]:
http://www.golem.de/0606/45998.html