Frage zu Streamprozessoren

Das Blöde ist, dass ich mich überhaupt nicht mehr an irgendeine Einzelheit erinnern kann, ich meine aber, dass bei NVidia 3 verschiedene Aufgabengebiete aufgezählt wurden, die bei deren Shadern alle in einem Takt abgearbeitet werden,

Das ist schon so richtig, die Shaderprozessoren einer GTX2xx können 1 Multiplikation und 2 Additionen pro Takt durchführen.
Die SPUs einer HD nur eine Multiplikation und eine Addition. Eine SPU einer HD kann halt gleichzeitig diese 2 möglichen Operationen (1Add;1Mul) pro Takt 5mal durchführen, z.B. beim Pixelshading die Farbstufen rot, Grün, Blau, alpha(afaik helligkeit) plus einen zusätzlichen Wert gleichzeitig berechnen.
Eine SPU der GTX2xx kann die 3 möglichen Operationen (2Add;1Mul) pro Takt nur 1Mal ausführen, die GTX2xx braucht also um den Farbwert eines Pixels gleichzeitig zu berechnen 4 SPUs (rot,grün,blau,alpha).

Dementsprechend berechnen sich auch die schon im letzten Post erwähnte theoretische SP-Rechenleistung in FLOPS.


BSP:GTX285
shadertakt x shaderanzahl x 3 Flops(für die 2adds + 1mul)
1476 MHz x 240 x 3 = 1067 Gflops

BSP:HD4870
shadertakt x Shaderanzahl x 5 (5D-Shader) x 2Flops(für die 1add + 1mul)
750MHz x 160 x 5 x 2 = 1200 Gflops

Die Ati hat also mehr theoretische Rechenpower, allerdings nur in dem Fall, in dem auch alle 5 möglichen gleichzeitigen Berechnungen einer SPU ausgenützt werden.

gruß
Raubwanze
 
Zuletzt bearbeitet:
..genau hier beisst sich die katze in den schwanz,

die hardware entwicklung ist so rasant das die software entwicklung aktuell nicht mehr hinterher kommt, das hat zur folge das die software immer schlechter in der programmierung wird weil mehr rechnleistung die schlechten codes retuschieren kann

schaut euch einfach mal aktuelle spiele an und die grafikengine
bsp.: farcry2 vs crysys welche engine ist besser programmiert?

das man diese nicht zu 100% vergleichen kann ist klar (subventionierung durch hersteller, etc.), aber "schön" sehen beide aus und das ist für den "normalen" user der maßstab zum vergleichen
 
Crysis sieht viel viel besser aus und läuft ergo auch schlechter *schulter zuck*
 
die hardware entwicklung ist so rasant das die software entwicklung aktuell nicht mehr hinterher kommt, das hat zur folge das die software immer schlechter in der programmierung wird weil mehr rechnleistung die schlechten codes retuschieren kann

Da ist auf jedenfall was dran.

@y33H@: Ich finde nicht mal das Crysis sehr viel besser aussieht, aber die Dunia Engine läuft auf jedenfall besser.
 
raubwanze schrieb:
rot, Grün, Blau, alpha(afaik helligkeit)

Ich kenne den Alphawert nur als Wert für Transparenz...

Alles andere würde auch keinen Sinn machen, da die Helligkeit über die Berechnung des Farbwertes staffindet.
Grobes Beispiel:

00 00 00 (RGB) = Schwarz

255 255 255 = Weiß

255 00 00 = Rot

usw.

Wie hell die Farbe ist, bestimmt also schon der Farbwert.
 
Warum hat AMD nicht einfach mal die 800 Prozessoren in 3D Einheiten zusammengefasst? Da sollte doch eine Bessere Auslastung machbar sein.
Oder vielleicht doch gelich 800*1D Einheiten? ;-)
 
Weil 160 5D Shader eifnacher zu realisieren sind als 800 1D Shader.

Sieh dir doch mal die Die-Größe eines RV770, ein GT200b ist viiiieeeeel größer, obwohl er "nur" 240 Shader hat, wie groß wäre dann wohl eine GPU mit 800 Streamprozzis bei 55nm?
~ 1300mm² ?
 
In einem GT200 stecken auch viel mehr TMUs usw. die sich AMD spart.
 
Ja ok, aber dennoch sind Nvidias Streaming Prozessoren vermutlich einiges größer als die 5D Shader der Radeons.
Klar ist im GT200 viel mehr enthalten als im RV770 - Rops (naja, sehr groß sind die ja auch nicht); TMUs; TAUs; Speichercontroller; vermutlich größere Register/Caches....
Der Thread Sheduler des GT200 soll ja so groß wie die K10 Northbridge (?) sein

Aber es sollte ja auch nur ein kleiner Vergleich sein - nicht mehr und nicht weniger
 
Klar sind die 1D größer als die 5-Vecs.
 
Zurück
Oben