Ist die GPU der Nachfolger der CPU?

AMD hat sowas doch schon in Planung da sind GPU und Cpu vereint, und man kann sich aussuchen ob man einen rechenstaarken rechner möchte oder eben einen der auf grafische Leistung setzt.
Links kann ich noch raussuchen...
1

Hier der LInk bei heise:heise
 
Zuletzt bearbeitet:
Und Intel wird dann die Prozessoren, auf denen die Raytracing-Engine lief, einfach GPUs nennen?

Ich habe dir technische Argumente geliefert, warum eine Integration einer _heutigen_ CPU einfach keinen Sinn macht, hast du etwa keine technische Vorstellungskraft?

@dogio1979: CPU-Limitierung ist was ganz anderes, sorry...
Wenn z.B. die CPU für die Grafikkarte notwendige Daten nicht schnell genug liefern kann, dann limitiert die CPU, weil die GPU unbeschäftigt auf die CPU warten muss...

@curie: AMDs Fusion wird mit Sicherheit keine High-End-Grafikkarten zu verdrängen versuchen... das ist wie gesagt für Low-Budget und Embedded interessant, nicht aber für High-End - zumindest für den Moment.
Edit: Auch ein Zitat von dem von dir verlinkten Heise-Artikel: "Für Highend-Grafik wolle AMD deshalb auch weiterhin diskrete GPUs entwickeln." - genau aus den von mir schon genannten Gründen...
 
Zuletzt bearbeitet:
Ich denke auch in Zukunft wird es keine Verschmelzung von CPU und GPU geben und das schon aus rein praktischen Gründen.
Einer der Hauptgründe dafür, das sich das Konzept "IBM PC" am Markt schon nun seit 30 Jahren behauptet, ist die Modularität. Komponenten (Grafikkarte, CPU, usw) können miteinander kombiniert werden. Die Verschmelzung macht diesen wichtigen Vorteil zunichte.
Das wird auch in Zukunft so sein. Modularität erleichtert den Herstellern die Fertigung wesentlich und hilft den Kunden Investitionen zu sichern (Aufrüstmöglichkeit).

Auch für das Billigsegment halte ich ein Single-Chip-Design (CPU & GPU on die) nicht für durchsetzungsfähig. Das liegt meiner Meinung nach schon im Herstellungsprozess begründet. Habe ich bei einem Single-Chip-Design einen Fehler im CPU-Teil, dann muss ich auch die möglicherweise fehlerlose GPU mit wegwerfen und umgekehrt. Sprich: geringere Ausbeute. Diesen Nachteil kann ich gegenüber separat produzierten Chips nie aufholen.

Verschmelzung interessiert daher niemanden, außer die GPU-Hersteller selbst. Es ist nur logisch, dass diese nach neuen Anwendungs- sprich Geschäftsgebieten für ihre Chips suchen. Es wird nämlich zunehmend schwerer werden auch dem geneigten Gamer immer "bessere" GPUs einzureden. Der Markt wird sich auch hier irgendwann sättigen.
Motto: Die Grafik ist mir realistisch genug und die Rechenleistung reicht mir eigentlich auch.

Da kommt es natürlich nur gelegen, die GPUs auch als Recheneinheit anzupreisen, aber das wird eine Nischenanwendung bleiben, da die GPU einfach viel zu spezialisiert ist und auch bleiben muss (Konkurrenzkampf am Grafiksegment).

Off-topic: Die x86-Architektur (bzw. die Erweiterung x64) wird auch mittelfristig nicht sterben. Die bisher aufgebaute Softwarebasis ist gigantisch groß, teilweise nur mit riesigem Aufwand neu zu schreiben (Know-How) und lang und oft bewährt (sprich: von Millionen Menschen getestet und über Jahrzehnte im Einsatz). Allein der Aufwand um alles zu konvertieren/umzuschreiben/usw. ist so gigantisch groß, dass der Vorteil den "alten Zopf" loszuwerden im Verhältnis vollkommen irrelevant ist.

Selbst wenn die CPUs spontan um das Doppelte schneller würden, zwei Jahre später haben die x86er die gleiche Leistung erreicht (Moore's Law). Und wozu dann die ganze Mühe?

Erst eine Revolution, wie etwa der Quantencomputer, wird IMHO derart große Vorteile bieten können, dass die x86-Architektur obsolet werden wird. Eine Evolution hat noch nie eine bewährte Technik verdrängen können. Die Geschichte ist voll von Beispielen dafür.
 
Ich seh das eigentlich ähnlich bis gleich wie seesharp. Und wie ich schon sagte, sind eben die integrierten GPUs dann für den embedded Markt sehr interessant (Subnotebooks, PDAs, und noch kleiner...).
 
1668mib schrieb:
Und Intel wird dann die Prozessoren, auf denen die Raytracing-Engine lief, einfach GPUs nennen?
Du hängst dich hier ein bisschen zu sehr an Worthülsen auf, mein Gott dann nenn es halt CGPU oder GCPU oder "Lila Kuh", das ist mir eigentlich ziemlich wurscht.
Die Argumente von seesharp sind durchaus vernüftig, mit heutigen technischen Gegebenheiten zu argumentieren eher weniger.
 
Die GPU berechnet spezielle Sachen = schnell
Die CPU berechnet alle Sachen = Langsam

alle CPU Berechnungen der GPU zuweisen geht einfach nicht.
(mit einer Gießkanne kann man auch keinen Garten umgraben)

das was AMD vor hat (beides in einen chip zu stecken) hat nur ein ziel. Platz/strom zu sparen. es wird Trotzdem beides geben.
 
Zuletzt bearbeitet:
CPU = Central Processing Unit
Daran wird sich nie was ändern, selbst wenn sie alle Grafikfunktionen drin hätte... das meinte ich doch schon weiter oben....

Hab ich eigentlich schon irgendein Argument, außer der Kostenreduzierung, rauslesen können, das dafür spricht, dass es Sinn macht, beide Chips zu vereinen?
 
Meiner meinung nach ist die GPU deshalb so schnell weil sie eben nur auf die 3d/2d Darstellung und Effekte ausgelegt ist
 
Also, der GPU geben wir nun die Fähigkeit alle Sachen berechnen zu können... Öhm, genau das sind doch dann CPUs. Und eben durch diese Vielfältigkeit sind sie so lahm.
 
und auf Nvidias Tesla willst du Windows oder ähnliches laufen lassen?
oder auch nur ein Spiel spielen?

Hier werden die Ganze zeit Äpfel mit Birnen verglichen.

IBMs Supercomputer von vor 20 Jahren ist weit schneller als heutige Home PCs
aber auch nur weil auf diesem kein Windows laufen würde.
Wo wir wieder beim Thema Äpfel und Birnen wären.
 
Wir werden keine weiteren Einheiten wie z.B. mit Physikskarten geplant war mehr bekommen, denn das übernehmen heute die vielen CPU Kerne. Dies ist ein Trend den die Grakas bald auch gehen. Und wo mehr mit Grakas möglich ist wird die Grafik auch besser. Retraycing wird bald für PCs kommen und im echtzeitrendering eingesetzt werden. Das werden CPU alles allein nicht lösen können. Die 3d karten sind wegen Games entstanden und werden nicht so schnell verschwinden. Grakas sind mit Physik und Soundkarten ein Stück verschmolzen DX10 und die HD Reihe kann Audio erweiterungen haben.
 
@kisser: Tesla wird wie ich schon sagte für wissenschaftliche Zwecke verwendet - wo wahrscheinlich immer wieder die selben stupiden Rechnungen gemacht werden müssen etc ...
da ist ein Grafikchip auch wirklich nicht ungeeignet... und Shader ehöhen auch die Möglichkeiten.
Von Vielfalt würde ich allerdings nicht sprechen wollen...
 
Kartoffel200 schrieb:
Wir werden keine weiteren Einheiten wie z.B. mit Physikskarten geplant war mehr bekommen, denn das übernehmen heute die vielen CPU Kerne.

Aber auch hier sind PPUs wieder DEUTLICH schneller als CPUs.
Was eine PPU berechnen kann killt jede Quad-Core CPU.
 
Also umsonst kommen nicht Mainboards mit 6x 16x PCIE Steckpätzen auf den Markt.

Es lebe der Co-Prozessor!
 
Hallo.
Die Antwort lautet Nein. Wären wie früher alle Grafikbefehle im CPU -kern würde man mit den heutigen Auflösung und 3D-Darstellungen Cache von mindestens 2-Gigabyte benötigt , was aus Temperaturgründen nicht möglich wäre. Ein 2GHZ-CPU müsste dann den Kühler eines 5GHZ-CPU haben. Ausserdem wären dann mit den heutigen Grafikleistung 8-16 Gigabyte Arbeitsspeicher nötig. Da Daten welche Zwischen GPU , Chipset und Cpu verschicken auf dem Arbeitspeicher zwischen gespeichert werden müsste. Der Hauptgrund für die Auslagerung der meisten Grafikbefehl von CPU in den GPU liegt in der schnelleren Bearbeitung. die GrafikKarte musst sich nicht mehr die Befehl vom CPU holen ,was Chipset und BUS entlastet und so mit auch die Temperatur des CPU-s. Da gilt aber nur für Video und 3D- Anwendungen. Meiner Meinung nach ,wird sich Die GrafikKarte jedoch zu einer Multimedia -Karte entwickelten. Soundkarten oder Sound-OnBoard-Chip werden innerhalb der nächsten 5 Jahre vom Markt verschwinden. Desweitern könnte ich mir auch vorstellen ein grosser Teil der heutigen Chipsatz-Befehl in den CPU bzw. GPU wandert und 3 verschiedene Cache(CentralCache ,MultimediaCache, DatentägerCache(Festplatte,DVD. Flash)) mal den Arbeitsspeicherl ersetzen . So das eine Computer der Zukunft aus 3 oder mehr Modulen besteht ,welchen direkt auf das Mainboard gesteckt werden ohne Kabel wie Wechselplatten mit Rahmen. Um dann mit dem Monitor und den Eingabe-Geräten per Infarot oder Funk zusammen zu arbeiten.
Rucon
 
Zuletzt bearbeitet:
Ich glaube auch nicht, dass die CPU und die GPU verschmelzen werden. Auch wenn viele glauben, man kann einfach mal so 128 Kerne nehmen, auf die Grafikkarte verzichten und damit ein Spiel in echtzeit raytracen - so einfach ist es leider nicht ;). Die Anordnung und Modularität der jetzigen Komponenten ist einer einzigen zentralen Einheit überlegen - auch in anderen Bereichen ist eine klare Tendenz zur Dezentralisierung auszumachen (Internet, Verwaltung, Software Packages etc). Alleine schon der Fakt dass eine "moderne" CPU nun aus mehreren Kernen besteht zeigt doch auf, dass sich das ganze in eine Richtung mit vielen einzelnen Einheiten und (später auch speziliasierten) Kernen bewegen wird. Ich glaube niemand kann wirklich sagen, ob wir unsere "Grafikkarten" in 50 jahren noch in einen Slot oder dann eben doch in eine Fassung eines mit Recheneinheiten übersäten Mainboards stecken werden.

Ohne mich jetzt zu weit aus dem Fenster zu lehnen, denke ich, dass uns eben auch die Evolution uns gezeigt hat, dass es durchaus Sinn macht sich eine Nische zu suchen und es somit Sinn macht bestimmte Organe (oder eben Chips in unserem Fall) zu spezialisieren. Daher denke ich nicht, dass wir in absehbarer Zeit einen Schritt in Richtung "Central Processing" machen ;).
 
naja was die Trennung anghet:
Es gab gab getrennte 2D- und 3D-Karten. Es gibt nun Physikbeschleuniger, die offensichtlich nun auch in die GraKas wandern werden.

Und was die Austauschbarkeit der Komponenten betrifft:
Dem gegenläufig ist der stark wachsende markt der laptops als Desktop Replacement.
 
Die CPU trägt immer noch den Hauptteil der Berechnung in 3D, erst bei der 2D-Projektion kommt die GPU ins Spiel. Insgesamt wird übersehen, dass primär geschäftliche/industrielle Anforderungen den Ton angeben. Hier ist flexible Rechenkapazität gefragt, nicht dedizierte wie in einer GPU. Deswegen wird reduzierte Grafikfähigkeit in die CPU einziehen - auch aus Kostengründen.

Die GPU muss eher fürchten, nicht einer von vielen dedizierten Zusatzchips zu werden.
 
hm, ist ne gute frage... ich denke es chips geben die alles können bzw wo alles auf einem untergebracht wird. diese werden aber in geräten verbaut werden man nicht / kaum nachrüsten kann. ideal z.b. für notebooks und co aber für spezielle sachen wie games, server usw wären dann funktionen vorhanden die nicht genutzt werden. zudem sind die befehlsätze usw zu unterschiedlich glaub ich.

und eines wird wohl immer gelten:

eine chip der alles kann, ist niemals so schnell wie mehrere chips die alle "ihr" fachgebiet bearbeiten. ist wie auf arbeit: ich bin Dipl. Ing. und kann auch dinge die ich nicht gelernt habe bzw die mir nicht wirklich spaß machen. nur so richtig gut bin ich nicht darin ^^
 
Zurück
Oben