GPU vs. CPU

dermitderATI

Lieutenant Pro
Registriert
Jan. 2002
Beiträge
650
Hi,
nochmal ne Verständnisfrage. Warum gibt es in recht kurzen Abständen immer wieder Neuentwicklungen auf dem Graka Markt, aber nicht auf dem CPU Markt ?!
GPU´s sind wesentlich kompakter und Leisten unglaubliches.
Warum ist die Entwicklung von CPU´s dagegen so träge ?! Stimmtes dass die GPU´s bald mehr Leistung erbringen können als ne CPU ?
 
Der Vergleich hinkt ziemlich!
Eine GPU ist etwas spezielles, während eine CPU für vieles ist.
(Ganz simpel ausgedrückt)
Beispiel. Ein Formel 1 Motor ist bestimmt kein Motor für einen Familenauto. ;)
 
also eine GPU hat schon mehr leistung

und die CPU entwicklung ist so lahm meiner meinung nach weil wenn alle 6Monate was neues kommen würde dann bräuchteste ein neues Mainboard weil die Hersteller neue Sockel einführen angepasste BS usw.

Bei Grakas ist der Vorteil das sie lange auf AGP bzw. bald PCI X laufen und nicht jeder Hersteller einen anderen Sockel hat und für jede Generation einen neuen raus bringt
 
mehrere Aspekt führen dazu:

- die GPU-Entwicklung hat erst vor wenigen Jahren begonnen, und hatte im Bereich Chipentwicklung einiges aufzuholen: es wurden zunächst nicht die aktuellsten Lithografie-Prozesse verwendet und sicherlich konnten sich auch die GPU-Entwickler einiges bei bestehenden Chip-Designs abgucken - sie mussten es nicht neu erfinden

- eine CPU muss generell mit zufälligen Daten/Befehlsfolgen auskommen, beim Rendern viele gleichartige Operationen - die einzelnen Pixel eines Frames können bis auf das Antialiasing sogar komplett parallel brechnet werden; bei GPU's können also Recheneinheiten problemlos kopiert werden, bei CPU's bringt das nicht immer Erfolg

- Marketing: bei Grafikkarten wird der (fast) gleiche Chip gerne unter neuem Namen vermarktet (R300-R350-R360 + NV30-NV35-NV38), bei CPU's werden kleine Änderungen in die bestehende Linie eingebaut (Bsp. P4)

- inzwischen sind die GPU's auch bei einem längeren Rythmus angekommen, siehe R300-R420...

- bei bestimmten FP-Operationen sind GPU's heute bereits den CPU's überlegen, aber dafür können sie eine Vielzahl von anderen Operationen gar nicht ausführen bzw. verlieren bei abhängigen Operation ihre parallel Rechenpower
 
Zuletzt bearbeitet:
Schnuffi5 schrieb:
und die CPU entwicklung ist so lahm meiner meinung nach weil wenn alle 6Monate was neues kommen würde dann bräuchteste ein neues Mainboard weil die Hersteller neue Sockel einführen angepasste BS usw.


entwicklungen kosten kohle

den sockel A gibts schon seit mehreren jahren - denk mal an p2 zeiten da gabs auch ständig neue sockel das was damals auch scheissegal.
 
Soviel ich weiss, leistet eine FX 5900Ultra GPU soviel wie ein Pentium 4 mit 10GHz
 
aber das is bloß Theoretisch

weil man kann keine GPU auf CPU drimmen
 
Rolf:Razekahl schrieb:
entwicklungen kosten kohle

denk mal an p2 zeiten da gabs auch ständig neue sockel das was damals auch scheissegal.

Für den P2 gab es "nur" den Slot1 Sockel und keinen anderen. Lediglich für die Celerons wurde noch der Sockel 370 des P3 eingeführt ;)
 
jup, alles nur theoretische Werte. Man konnte auch eine audigy 1 auf einer geforce 4 simulieren ;)
 
Eine GPU kann halt nur die Grafikdaten berechnen, die von der CPU rübergeschickt werden. Die ist darauf halt gebaut.

Wenn man die GPU als CPU einsetzen könnte, hätte man auch viel mehr Leistung als mit einer CPU, weil die Grafikdaten halt mehr System brauchen.

Kannst ja mal in einem Spiel RGB Emulation machen. Dann übernimmt deine CPU die Grafikarbeit. :)
 
hmm... irgend wie ist es kommisch. Ich glaube nicht das der GPU schneller ist, ausser beim Grafikberechnen. Ein CPU kann doch alleine Arbeiten, da es Daten versendet. z.B im vergleich:

Ein Post Center (CPU) der alle Briefe (Daten) empfängt, und weitersendet z.B an nVidia (GPU).

nVidia ist doch viel grösser und auch mächtiger als die Post, allerdings ist die Post wie das Herz des Systems. Weil ohne dass wird kein brief weitergeleitet an diesen Stelle die es soll.

Die GPU ist ach schneller weil Sie sich eigentlich nru hauptsächlich für eines Konzentrieren, nicht wie ein CPU (Multifunktional).

Aber wenn es wirklich stimmt, das ein GPU einer GeForceFX 5900 Ultra so schnell wie ein 10Ghz P4 wäre, dann wäre es ja der Hammer.

Aber wenn man bedenkt wieviel Cache Speicher ein CPU hat :rolleyes:
Schlapppe 1MB bei Athlon 64.
Dabei haben die neuen Grafikkarte Generationen 256MB.
Wenn ich mich nicht täusche, ist der Cache schneller als die DDR Zwischenspeicher?! :confused_alt:
 
Wenn ich mich richtig erinnere, gibt es bereits einige (teilweise geglückte) Versuche, die Grafikkarte ein wenig allgemeiner im System einzusetzen.

Viele der Routinen für die Grafikberechnung können auch in "normalen" Programm genutzt werden - da bietet die Grafikkarte z.Zt. einen eindeutigen Geschwindigkeitsvorteil.

Der Nachteil bleibt allerdings weiterhin (wie bereits gesagt), dass die Grafikkarte (bislang) eben nicht jede Art von Code ausführen kann.

Ob das nun in die Richtung geht, dass eine Grafikkarte ein eigenständiges Rechnersystem wird oder sie zusammen mit CPU, Mainboard etc. wieder verschmelzen wird, so wie es früher bereits war, bleibt wohl abzuwarten.

Jedenfalls kann die Richtung dieser Entwicklung nicht falsch sein - der Werdegang der GK's ist entscheidend von der Forschung im CPU-Bereich geprägt.
Wenn die GraKas sich weiter so rasant entwickeln, wird wohl die eine oder andere Innovation bald auf den CPU-Bereich überspringen.

Momentan jedoch bleibt wohl die CPU Sieger als Allrounder, die GraKa jedoch als Spezialist ungeschlagen.

Project-X schrieb:
Aber wenn man bedenkt wieviel Cache Speicher ein CPU hat :rolleyes:
Schlapppe 1MB bei Athlon 64.
Dabei haben die neuen Grafikkarte Generationen 256MB.
Wenn ich mich nicht täusche, ist der Cache schneller als die DDR Zwischenspeicher?! :confused_alt:

Jap stimmt, Cache Speicher ist eigentlich immer Schneller als Hauptspeicher - darum verbaut man ihn ja immernoch :rolleyes:
Das heisst aber nicht, dass 1 MByte (meinetwegen 10 ^^) wenig sind - schliesslich werden dort Befehle und Steuerdaten hinterlegt - und ist 1 MB schon eine ganze Menge (tipp mal 1 MB Code :D)
Und wenn der dann einmal voll ist oder schliesslich mal wirkliche Daten benötigt werden, hat die CPU einen Speicher zur Verfügung, der die Dimensionen der GraKa's bislang bis ins gigantische übersteigen kann; Wenn man es denn will und braucht.

Eine interessante Möglichkeit wäre natürlich ein wirklicher Cache für die Grafikkarten... :heilig:
 
irgendjemand hat mal den passenden vergleich gebracht, dass die gpu wie ein hochgeschwindigkeitszug ist und die cpu ein auto ;)
klar, bei er strecke münchen-frankfurt ist man mit nem sprinter-ICE schneller als mit nem auto, aber was ist wenn du mal nicht von münchen nach frankfurt sondern in ein kaff fahren willst ? richtig du brauchst das auto ;)
cpu ist viel flexibler - dafür ist die gpu ist bei bestimmten sachen viel schneller...
 
Zurück
Oben