Ist die GPU der Nachfolger der CPU?

dogio1979

Admiral
Registriert
Aug. 2006
Beiträge
7.311
Hallo,

ich würde gern mal eure Meinung zu folgenedem Thema wissen und eine Diskussion dazu anstoßen.
Wird der klassische prozessor, wie es ihn heute gibt weiterhin aktuell sein, wird er möglichwweise mit der GPU verschmelzen oder wird die "CPU" Bestandteil einer "GPU".
Heute wo die neue Grafikkartengeneration auch Aufgaben vom Prozessor zugewiesen bekommen kann und Grafikkarten in vielen Bereichen mehr Rechenleistung bringen als herkömmliche Prozessoren scheint der Gedanke nicht so abwegig.

Unterstrichen wird dies ja zb. von der Workstation-Lösung namens Tesla von nVidia.

Dazu kommt ja noch, dass mit alltäglichen Anwendungen ein Prozessor heute schon lange nicht mehr ausgelastet werden kann. Hohe Prozessorleistung macht sich doch nur noch bei Grafik- und Videoberabeitung, 3D-Rendering und ähnlichen Programmen bemerkbar, die alle vermutlich aber auch über eine GPU laufen könnten, was sie teilweise ja auch schon tun.

Baut nVidia womöglich irgendwann Prozessoren? War dies der wahre Grund der Übernahme von ATi durch AMD?

Gruß
 
AW: Ist die GPU der Nachfolger der CPOU?

Vorweg genommen, ein sehr interessantes Thema dogia1979

Ich würde sagen, es wird kommen ... allerdings nicht für alle Computer. Trotz immer kleineren Fertigungungsprozessen, fallen die Abwärmetemperaturen nicht sehr stark. In Office-Rechnern haben wir ja heute schon die Verbindung CPU mit On-Board Grafik auf dem Mainboard. Dort könnte ich mir sehr wohl vorstellen, die CPU mit der GPU vereinen zu können. Die Abwärme die ein On-Board Grafikchip verursacht, wäre sicherlich mit dem CPU Kühler zusätzlich zu bewältigen. Nehme ich beispielswiese einen Q6600 mit 55-60°C Last-Werten und einer 8800 GTS oder GTX mit 70°C zusätzlich, würde das in einen Chip verbinden, da stößt einfach eine Luftkühlung an ihre Grenzen. Welcher Kühler sollte diese immense Kühlwirkung aufbringen, beides in einem Chip kühlen zu können. Damit stoße ich an die Frage: Wasserkühlung?! .. möchte man in Zukunft alles per Wasser kühlen, natürlich wäre das eine Alternative, die dann aber zwingend notwendig wäre. Erleben wir aber in den nächsten Jahren in der Luftkühlung immense Fortschritte, was ich nicht glaube, Luft ist Luft ... irgendwann hat man das Optimum eben erreicht, wäre Luft vll. ebenfalls möglich. Wieviel Abwärme ein Chip auf einem 10nm Fertigungsprozess erzeugt, ... das weiß ich nicht. Erzeugt er nur noch 10-20°C Abwärme, wäre natürlich Luftkühlung für CPU+GPU wieder möglich. Wann 10nm Chips in Serie gehn, weiß ich auch nicht...

Fazit: In Office-Rechnern wird der On-Board Chip sicherlich irgendwann mit der CPU vereint werden, in Hochleistungsrechnern wird das Problem der Kühlung erstmal gelöst werden müssen, vorher ist daran nicht zu denken.

Betrachtet man das ganze noch etwas weiter, wird es somit ein unabhängiges aufrüsten nicht mehr geben, da CPU und GPU vereint sein werden, ein Nachteil wie ich finde. Was ist wenn zum Beispiel die GPU defekt ist? Dann müsste ich ja auch die CPU in den Mülleimer werfen, im Endeffekt eine weitere Abhängigkeit der beiden voneinander

Gruß Drachton
 
Zuletzt bearbeitet:
Ja, aber du thematisierst natürlich nur Zwitterlösungen, d.h. beide Sachen gibts noch, nur halt auf einem Die. Doch die frage ist ja auch "wieviel Prozessor" braucht man eigentlich noch, wenn mehr Aufgaben konsequent durch die GPU-Teile bearbeitet werden würden? Auch vorstellbar wäre, dass der heutige klassiche prozessor nur noch eine Art Schaltzentrale ist, die die Aufgaben koordiniert.
Aber du hast schon recht, das größte Problem sind Wärmeentwicklung und Stromverbrauch, insbeondere wenn man sie die Verlustleistung des nVidia Tesla anschaut.
 
Um eines mal Klarzustellen: Der Nachfolger der CPU wird die CPU bleiben, selbst wenn sie die GPU in sich vereinen wird.
Die GPU ist im Gegensatz zur CPU auch ein hochspezialisierter Prozessor, der das, was er kann, halt sehr gut kann - was manche dann irgendwie immer blind werden lässt, wenn sie die reinen GFlops anschauen usw...
Das Vereinen von CPU und GPU macht - zumindest in den nächsten Jahren - nur im Low-Budget-Markt und im (Ultra-)Mobile-Segment (also Subnotebooks und kleiner, z.B. PDAs, Handys, etc) wirklich Sinn.
 
Interessant wäre es aber schon, wenn die Leistung nur noch aus einem Prozessor kommen würde (nur noch ein Hitzequelle).
 
Intel wird von 45nm zu 32 nm wechseln 2009 und auf 22 nm noch etwas später !

aber weniger als 22nm geht einfach nciht sagt Intel zumindest nciht wirtschaftlich weil selbat ein Silicium Atom (mit hülle) nur wenige mal in 22 nm rein passt hat glaube ich 1 oder 2 nm (nicht der kern der hat nur 0,x nm ) hat ! es ist einfach zu eng.
 
Ich sehe es eher umgekehrt. Die heutuge CPU wird in die jetzige GPU einfließen, denn die Leistung der jetzigen CPU-Generation wird von keinem programm genutzt, dass nicht auch auf einer GPU laufen könnte.
 
Wie 1668mib scho sagte ich denke dass sie in wirklich leistungsfähigen Systemen auch weiterhin getrennt bleiben werden. Denn eine GPU kann ja nicht wirklich viel aber das halt ausgezeichnet. Die CPU ist da mehr so das Universalgenie, das fast alles kann aber dafür halt im Einzelfall nicht so schnell wie ein Chip der nur auf einen gewissen Bereich ausgelegt ist.

MfG
 
aber im Grunde ist es das ja genau.
Für universelle alltägliche AUfgaben sind heutige CPUs längst überdimensioniert, quasi "zu schnell" und für besondere Aufgabven immernoch zu langsam.
 
Ich glaube nicht, dass es in absehbarer Zukunft nur noch eine Recheneinheit im Computer geben wird.

Grund hierfür ist, dass man spezielle Rechenaufgaben am besten mit Spezialhardware macht um die maximale Performance zu erreichen. Selbst wenn man eine lean-mean-rechenmaschine hat die mit 1024-cores und 8 GHz mit je 4 Threads pro Kern arbeitet - könnte es immernoch einen Chip geben, der Grafik bedeutend schneller berechnet - bei wesentlich weniger Stromverbrauch und Transistoren.

Grundvoraussetzung für deine Idee wäre, dass man Windows auf RISC Chips betreiben kann. Dann müssten ebenfalls alle anderen Anwendungen auf dieser Welt mit diesen Prozessoren zurechkommen. Das wäre ein großer Schritt, den ich auch in weiter Zeit nicht sehe.

Nachtrag:
Wo ich allerdings SEHR viel Potential sehe, ist die öffnung des AMD Hypertransports für eigene Chips. So kann man eventuell eigene Chips bauen, und diese wie Prozessoren einfach aufs Motherboard stecken. Praktisch ein Plug-In-Coprozessor :) So könnte man die einzelnen Aufgaben schön auf einzelne Slots verteilen. Geht zwar heute auch schon alles über den PCI-E Bus, aber so könnten sich alle Chips den gleichen Arbeitsspeicher teilen und man müsste nicht für jede Karte eigenen RAM verbauen.
 
Zuletzt bearbeitet:
Ok die Möglichkeit, dass alles in einen Chip einfließt habe ich wirklich außer acht gelassen. Wie stellst du dir das aber vor? Ein Chip der beides kann, und dann auf die Anforderungen umschaltet? ... Office 95%CPU 5%GPU, das könnte ich mir ja noch vorstellen. Allerdings wenn es los geht mit zum Beispiel Games, schaltet er ja um auf evtl. 50:50 ... dann müssten beide Teile aber immer noch so stark sein, dass es lüssig läuft. Im mom wäre beim Spielen ja 100% GPU und 100% CPU. Wenn das alles ein Chip übernimmt, müsste er ja 200% bringen...

Sind die Geschwindigkeitsvorteile innerhalb eines Chips soviel größer, als wenn Grafikkarte und CPU übers Mainboard verbunden sind? Durch den Wegfall der Grafikkarte wäre ein viel größerer CGPU Kühler sicherlich möglich, ob er es schafft diesen Chip trotzdem zu kühlen, fraglich
 
Eine GPU kann im Leben nicht alle Sachen berechnen. Dafür ist die nicht gemacht.

Ein Chip der alles berechnen kann, ist ja sozusagen eine CPU.
Das wäre dann also eine CPU, die extrem schnell ist. Denn heutige CPUs sind einfach zu langsam um z.B. Spielegrafik zu berechnen.

Also wäre es möglich, wenn die CPUs irgendwann mal so schnell sind, dass sie fotorealistische Grafik problemlos berechnen kann.
Denn ein spezialisierter Chip ist immer schneller. Höchstens, wenn man die Geschwindigkeit nicht mehr braucht, kann man auf einen langsameren Alleskönner zurückgreifen.
 
Naja wenn man bedenkt, dass ein SLI oder Crossfiresystem heutige CPUs überfordert, dann sieht man ja was Grafikkarten zu leisten vermögen.

Ich sehe die Zukunft folgendermaßeb.
Es gibt quasi eine CPU mit integrierter GPU und den umgekehrten fall und man wählt nach Anforderungsprofil.

Nur mal zu Erinnerung: der mathematische Co-Prozessor war früher auch seperat.

Auch bei games wird die aktuelle CPU doch immer weiter verdrängt. Physikberechnungen die früher die CPU übernommen hat, werden teilweise nun auf der Grafikkarte berechnet, sodass im Moment fast nur noch die KI der CPU überlassen bleibt.
Extrapoliert diese Entwicklungen einmal und geht nicht nur davon aus, was zurzeit auf dem markt ist.
 
Zuletzt bearbeitet:
dogio1979: Selbst wenn eine GPU um die CPU-Fähigkeiten erweitert wird, wird diese dann CPU genannt, das meinte ich.

Und warum es überhaupt Bestrebungen gibt, GPUs und CPUs zusammenzuführen: Die Kostenersparnis, auf einen zweiten Chip verzichten zu können. Da geht es wengier um die ambitionierten Anwender sondern um die Vielzahl an Büro-PCs, bei denen halt jeder Dollar wichtig ist... Der Low-Budget-Markt ist das, wo das Geld verdient wird für Firmen wie AMD, und um dort besser Fuß zu fassen, ist eine Integration der Grafikeinheit in die CPU und somit eine Reduzierung der Gesamtkosten für ein System von großem Vorteil.

NVIDIAs Tesla zielt ja auch nicht auf Normalanwender oder Office-PCs ab, sondern ist für wissenschaftliche Anwendungen gedacht, bei dem es Sinn machen kann, die Berechnungen etc in die GPU auszulagern.

Und man sollte sich noch was vor Augen führen: Heutige Grafikkarten benötigen "besseren" Speicher als die Prozessoren, der zudem noch exakt auf das Modell "zugeschnitten" ist in Sachen Speicherinterfacebreite und Speichertakt etc. Wie möchte man das denn im High-End-Bereich lösen? Sollen die 1 GB DDR3-Speicher auf dem Mainboard verbaut werden - etwas wie heutige Module? Das würde den Zugriff ineffizienter machen als bisher...
Das Zusammenführen ist für die nächsten Jahre einzig und allein für's untere Preissegment interessant, und man denke auch mal darüber nach, dass neue PCI-Express-Versionen nicht grundlos und mit dem Gedanken, in 2 Jahren auf eine Grafikkarte verzichten zu können, entwickelt werden.

Außerdem denke ich nicht, dass die CPUs wirklich ineffektiv sind, ich denke das Problem ist viel mehr, dass ineffektiv programmiert, optimiert und compiliert wird. Ein Programm sollte auf möglichst jedem erdenklichen Prozessor laufen, und dementsprechend muss auch Rücksicht genommen werden - warum schaffen denn Konsolen mit offensichtlich rechenschwächerer Hardware oftmals gleichgute Resultate wie ein Computer?

NVIDIAs Tesla profitiert ja auch davon, dass die Anwendungen genau dafür und für nichts anderes geschrieben werden.

Edit: Was heißt dass ein SLI/Crossfire-System heutige CPUs überfordern denn?
Und wir wissen alle, was Grafikkarten leisten können - weil sie exakt dafür gemacht wurden.
Und klar, der Co-Prozessor war früher separat? Was hat das aber mit dem Thema zu tun?
Und die CPU hat deutlich mehr zu tun als nur die KI...
 
Zuletzt bearbeitet:
Da wären dan noch die Server, bei deren Workloads man eine Grafikkarte gar nicht gebrauchen kann, nicht einmal eine moderne "flexible" mit G80 Chip. NUr werden CPUs ja vor allem auch für Server entwickelt und kommen dann erst danach auf den Desktop(siehe K10). Vielleicht stellen Grafikkarten in Zukunft leistungsfähige relativ vielseitige Co Prozessoren dar.

Ein Riesen Potenzial hat denk ich hat auch das Polaris Konzept von Intel, das mit der Generation2 auch x86 Code verarbeiten kann und gleichzeitig als Grafikkarte zu gebrauchen ist (-> siehe Larrabee)
 
Zuletzt bearbeitet:
Momentan geht der Trend ja sogar zu noch mehr Spezial-Chips. Ein Beispiel dafür ist die PPU.
Spezialisierte Chips sind in ihren Gebiet einfach VIEL schneller, können aber auch NUR das.

Und alles, was durch solche Chips nicht abgedeckt wird, macht halt die CPU.
 
1668mib schrieb:
dogio1979: Selbst wenn eine GPU um die CPU-Fähigkeiten erweitert wird, wird diese dann CPU genannt, das meinte ich.
Das ist Wortklauberei, aber bei diesen Vokabeln weiss jeder, worum es geht.

1668mib schrieb:
Und warum es überhaupt Bestrebungen gibt, GPUs und CPUs zusammenzuführen: Die Kostenersparnis, auf einen zweiten Chip verzichten zu können. Da geht es wengier um die ambitionierten Anwender sondern um die Vielzahl an Büro-PCs, bei denen halt jeder Dollar wichtig ist... Der Low-Budget-Markt ist das, wo das Geld verdient wird für Firmen wie AMD, und um dort besser Fuß zu fassen, ist eine Integration der Grafikeinheit in die CPU und somit eine Reduzierung der Gesamtkosten für ein System von großem Vorteil.
Das ist eine kurzftistige Sichtweise, auf die beziehe ich mich aber nicht

1668mib schrieb:
NVIDIAs Tesla zielt ja auch nicht auf Normalanwender oder Office-PCs ab, sondern ist für wissenschaftliche Anwendungen gedacht, bei dem es Sinn machen kann, die Berechnungen etc in die GPU auszulagern.
Richtig, aber was heute Professionell ist morgen Office, wer hat denn früher an ein Vierkernsystem für den Heimbereich gedacht.

1668mib schrieb:
Und man sollte sich noch was vor Augen führen: Heutige Grafikkarten benötigen "besseren" Speicher als die Prozessoren, der zudem noch exakt auf das Modell "zugeschnitten" ist in Sachen Speicherinterfacebreite und Speichertakt etc. Wie möchte man das denn im High-End-Bereich lösen? Sollen die 1 GB DDR3-Speicher auf dem Mainboard verbaut werden - etwas wie heutige Module? Das würde den Zugriff ineffizienter machen als bisher...
Das Zusammenführen ist für die nächsten Jahre einzig und allein für's untere Preissegment interessant, und man denke auch mal darüber nach, dass neue PCI-Express-Versionen nicht grundlos und mit dem Gedanken, in 2 Jahren auf eine Grafikkarte verzichten zu können, entwickelt werden.
Wieder das gleiche: Ich bezieh mich auf einen viel weiteren Horizont.

1668mib schrieb:
Außerdem denke ich nicht, dass die CPUs wirklich ineffektiv sind, ich denke das Problem ist viel mehr, dass ineffektiv programmiert, optimiert und compiliert wird. Ein Programm sollte auf möglichst jedem erdenklichen Prozessor laufen, und dementsprechend muss auch Rücksicht genommen werden
Oh, ich denke, das heutige CPUs sehr ineffektiv sind, insbesonbdre die x86-Prozessoren, die Elemente in sich tragen, die nur gebraucht werden um der x86-Spezifikation zu entsprechn und 20 Jahre alte programme darauf laufen. Den Zopf sollte man sich mal abschneiden.

1668mib schrieb:
Und klar, der Co-Prozessor war früher separat? Was hat das aber mit dem Thema zu tun?
Das dient als beispiel für Integration.

@Silverhawk
Ich glaub, du hast verstanden, worum es mir geht.


Übrigens schlägt Intel mit umgekehrten Vorzeichen ja in die selbe kerbe:
https://www.computerbase.de/news/gaming/intel-zeigt-raytracing-engine-fuer-pc-spiele.19894/
 
Eben, auch wenn ich kein Befürworter der Physik-Karten bin, wäre ein integrierter Physik-Prozessor in einer CPU z.B. schon nett...

@dogio1979:
Der Vergleich mit dem Co-Prozessor ist dennoch absolut unpassend - der Co-Prozessor erweiterte den normalen CPU-Befehlssatz, und spätere CPUs haben diesen Befehlssatz einfach direkt implementiert... das wäre wie wenn es früher einen SSE-Prozessor gegeben hätte, und nur in die CPU gewandert ist.
Eine GPU wird vollkommen anders angesprochen wie der mathematische Co-Prozessor damals, das sind grundlegend verschiedene Dinge.
Nenn mir doch noch ein Beispiel außer dem Co-Prozessor, was denn bisher so alles in die CPU integriert wurde?
AMD den Speichercontroller... sonst fällt mir nicht arg viel ein... deutlich länger wäre die Liste der Dinge, die nicht integriert wurde... was ich allerdings nicht als Argument hernehmen würde, dass die CPU keine GPU-Funktionen spendiert bekommen wird...

Und dein Raytracing-Beispiel zeigt doch, dass eigentlich gar keine wirkliche Integration von GPU iin CPU notwendig ist, wenn die Grundrechenleistung der CPU stimmt - es war ein "stinknormaler" x86-Prozessor (8 Kerne halt), nichts mit integrierten GPU-Funktionen. Da würde es im Prinzip reichen, die CPU bekäme einen Grafikspeicher spendiert und noch nen RAMDAC etc...

Und dein Horizont-Gerede ersetzt leider keine Argumente.
 
Zuletzt bearbeitet:
dogio1979 schrieb:
Naja wenn man bedenkt, dass ein SLI oder Crossfiresystem heutige CPUs überfordert, dann sieht man ja was Grafikkarten zu leisten vermögen.

[...]

Auch bei games wird die aktuelle CPU doch immer weiter verdrängt. Physikberechnungen die früher die CPU übernommen hat, werden teilweise nun auf der Grafikkarte berechnet, sodass im Moment fast nur noch die KI der CPU überlassen bleibt.

Ich wußte gar nicht, dass bei SLI- oder Crossfire-Lösungen die KI-Berechnung so extrem ansteigt :rolleyes:
Es könnte aber auch sein, dass du ein bißchen darüber den Überblick verloren hast, was eine CPU in den Spielen zu berechnen hat.
Deiner Theorie (und deinem tollen Horizont nach) würden ja für aktuelle Spiele CPUs der K6- oder PIII-Serie ausreichen, weil die GPU inzwischen fast alles berechnet Nur irritierend dabei, dass sehr häufig die wiedergegebene Grafikleistung (in FPS) mit der Leistung der CPU skaliert.
 
Wir wollen uns hier nicht mit Sematik befassen. Die Frage ist doch, ob das was Intel mit Retraycing gelingt, andersherum nicht auch nVidia gelingen könnte?

So wie du selbst sagst, dass eventuell alleine eine CPU ausreicht, dann haben wie ja schon die Vereinigung, eine vereinigung der Funktionen, nicht zwnagsläufig der pysikalischen Bestandteile.

Und sicher zieht das Zeithorizontargument. Wie wäre es mit einem bisschen technischer Vorstellungskraft oder gehörst du zu den leuten, die schon vor zehn jahren wussten, dass heute Doppelkernprozessoren und 2 GB ARbeitsspeicher Standard sind. da überstieg vpor 10 jahren auch die Vorstellungskrafdt der meisten. Oder dass auf einer Fläche einer microSD-Karte 2GB Speicher und mehr Platz findet. Dieser Theread soll auch ruhig ein wenig ins Spekulative gehen.

@Tunguska
aber warum limitieren CPUs denn? Wel es den meisten Programmen nicht gestatt wird, direkt auf die GPU zuzugreifen und immer der Umweg über die CPU genommen wird.
 
Zurück
Oben