Ich denke auch in Zukunft wird es keine Verschmelzung von CPU und GPU geben und das schon aus rein praktischen Gründen.
Einer der Hauptgründe dafür, das sich das Konzept "IBM PC" am Markt schon nun seit 30 Jahren behauptet, ist die Modularität. Komponenten (Grafikkarte, CPU, usw) können miteinander kombiniert werden. Die Verschmelzung macht diesen wichtigen Vorteil zunichte.
Das wird auch in Zukunft so sein. Modularität erleichtert den Herstellern die Fertigung wesentlich und hilft den Kunden Investitionen zu sichern (Aufrüstmöglichkeit).
Auch für das Billigsegment halte ich ein Single-Chip-Design (CPU & GPU on die) nicht für durchsetzungsfähig. Das liegt meiner Meinung nach schon im Herstellungsprozess begründet. Habe ich bei einem Single-Chip-Design einen Fehler im CPU-Teil, dann muss ich auch die möglicherweise fehlerlose GPU mit wegwerfen und umgekehrt. Sprich: geringere Ausbeute. Diesen Nachteil kann ich gegenüber separat produzierten Chips nie aufholen.
Verschmelzung interessiert daher niemanden, außer die GPU-Hersteller selbst. Es ist nur logisch, dass diese nach neuen Anwendungs- sprich Geschäftsgebieten für ihre Chips suchen. Es wird nämlich zunehmend schwerer werden auch dem geneigten Gamer immer "bessere" GPUs einzureden. Der Markt wird sich auch hier irgendwann sättigen.
Motto: Die Grafik ist mir realistisch genug und die Rechenleistung reicht mir eigentlich auch.
Da kommt es natürlich nur gelegen, die GPUs auch als Recheneinheit anzupreisen, aber das wird eine Nischenanwendung bleiben, da die GPU einfach viel zu spezialisiert ist und auch bleiben muss (Konkurrenzkampf am Grafiksegment).
Off-topic: Die x86-Architektur (bzw. die Erweiterung x64) wird auch mittelfristig nicht sterben. Die bisher aufgebaute Softwarebasis ist gigantisch groß, teilweise nur mit riesigem Aufwand neu zu schreiben (Know-How) und lang und oft bewährt (sprich: von Millionen Menschen getestet und über Jahrzehnte im Einsatz). Allein der Aufwand um alles zu konvertieren/umzuschreiben/usw. ist so gigantisch groß, dass der Vorteil den "alten Zopf" loszuwerden im Verhältnis vollkommen irrelevant ist.
Selbst wenn die CPUs spontan um das Doppelte schneller würden, zwei Jahre später haben die x86er die gleiche Leistung erreicht (Moore's Law). Und wozu dann die ganze Mühe?
Erst eine Revolution, wie etwa der Quantencomputer, wird IMHO derart große Vorteile bieten können, dass die x86-Architektur obsolet werden wird. Eine Evolution hat noch nie eine bewährte Technik verdrängen können. Die Geschichte ist voll von Beispielen dafür.