Das Problem ist wohl das Intel die Felle davonschwimmen.
X86 lebt von nichts als der bestehenden Software und weil die zum größten Teil nur mit einem Thread läuft wird man da auch mit sonst wie vielen Kernen nichts erreichen, da brauchts nunmal Leistung pro Kern (und natürlich pro Takt)
Ganz davon abgesehen das es genug Probleme gibt die sich garnicht sinnvoll parallelisieren lassen, unbegrenzt schon garnicht.
Mag pararox klingen, aber schon 1967 hat Amdahl festgestellt das sich die Berechnungsdauer eines jeden Programmes letztendlich(sehr viele Kerne) lediglich nur aus dem nicht parallelisierbaren Programmanteil ergibt.
Das bedeutet das auf lange Sicht (die nächsten 5-10 Jahre dürften schon reichen) nurnoch die Leistung pro Kern wichtig sein wird und die Kernanzahl in den Hintergrund tritt.
Freilich will Intel aber nicht in Richtung sequentieller Leistung gehen. Ist ja auch viel billiger und einfacher mehrere Kerne zu verbinden als die Leistung oder den Takt pro Kern zu erhöhen.
Also schiebt man eben den schwarzen Peter anderen zu, nach dem Motto : "wenn ihr nichts macht hilft auch unsere tolle Technik nichts"
In Wirklichkeit ist die Technik aber garnicht so toll und nur entstanden weil man nicht fähig oder willens ist in die andere Richtung zu gehen.
Dem üblichen "Nutzer" kann man jedoch ständig im Glauben lassen das alles möglich wäre.
Glaubt doch eh jeder das sich jegliche Software parallelisieren lässt wenn sich die Programmierer nur genug Mühe geben.
Die Unwissenden hat Intel also auf jedenfall auf deren Seite.
Wenn ich jetzt gemein wäre würde ich sagen, der Post unter mir hat meine These gerade einwandfrei bestätigt.
edit : noch ein interessanter Kommentar zu dem Thema
http://blogs.msdn.com/devdev/archive/2007/09/07/p-complete-and-the-limits-of-parallelization.aspx (vorsicht, englisch !)