Richtig, und prinzipiell lässt sich jede komplexe Software in Teilthreads spalten, die dann auf mehreren Kernen laufen. Die Frage ist nur wie gut und wieviel Aufwand ist das. Und wieviel dieser Arbeit kann das OS automatisch übernehmen.
Eigentlich sind heutige PCs dort angekommen wo sie hin sollten, weitere Geschwindigkeitserhöhungen bringen eigentlich nicht mehr wirklich viel. Ein Auto mit 100 PS hat sich auch als der Standard etabliert. Es gibt eben DOCH irgendwann eine Grenze wo es keinen Sinn mehr macht. Die war zwar nicht wie prognostiziert vor 20 Jahren bei 32 Kilobyte RAM oder 256 kB Speicher, aber jetzt eben doch. Und zwar definitiv.
Ab jetzt ist alles nur noch für Spiele, Server oder Multimedia profitabel. Allerdings, Multithreading ist nicht erst seit JAVA ein wichtiges Gebiet für Programmierer geworden, natürlich wird sich das Softwaredesign die nächsten Jahre stark ändern.
Eines ist jedenfalls sicher, MultiCore ist stark im kommen, das sehe ich schon bei uns an der Uni. Rendering ist eigentlich der Klassiker, theoretisch ist jeder einzelne Transistor einer Graka ein Core, also hat die neue ATI RV770 Karte später 1 Milliarde Cores wenn man es so sehen will, da funktioniert es auch, weil man die Engines eben so ausgelegt hat.
Oder was glaubt ihr was nVidia CUDA ist, im Prinzip nichts anderes als ein extremer Multicore CPU. Natürlich muss man Software dafür maßschneidern, aber das ist nicht unmöglich, aber natürlich problemabhängig.