Geforce 8900GTX - G80 mit 25% mehr Shadern

Naja, aber wenn man sieht, wie eine GTX ne GTS verbläßt, dann ist das denk ich wegen den Shadern und nicht wegen dem Takt.
Meine Prognose ist: Mehr Shader, Shrink auf 80NM und DDR4 Ram bei erhöhten Taktraten und ca. gleichem Stromverbrauch, sollte gute 30-35% Mehrleistung ermöglichen.

Wegen den Shadern? Der G80 schafft wegen der defekten Mul nur eine Shaderleistung von 345Gflops. Dennoch hat er eine hohe Granularität und sehr viel Füllrate.

Was mich aber viel mehr interessiert, und es wird langsam mal Zeit, denke ich, ist die DX10 Leistung des jetzigen G80.

Ohne Spiele mir Dx10 geht das schlecht. :D

mfg Nakai
 
Die 8800GTX ist grad mal 4 Monate draußen und schon soll ein refresh her das ist schon arg kurz. bei der 7800GTX hats meiner meinung nach auch 8 monate gedauert bis einer kam und als ati mit seiner x1800xt kam hat man die GTX 512 auf den MArkt gebracht (bzw gesagt man tut es besonders viele davon hat der markt ja nie gesehen). Von daher frage ich mich ob man nich vorerst einen g80 mit GDDR4 bringt um dann im sommer den 65nm refresh zu bringen?


Naja

Fezza
 
Dann wäre doch der Zeitplan viel zu knapp. Ich denke, man wird erst ca. einen Monat nach dem R600 eine Antwort seitens nVidia erwarten können.

mFg tAk
 
Nakai schrieb:
Wegen den Shadern? Der G80 schafft wegen der defekten Mul nur eine Shaderleistung von 345Gflops.
was hat das mit seiner aussage zu tun?
er vergleicht 2x G80 mieinander

seine aussage stimmt trotzdem nicht ganz
es wurden ja nicht nur shader, sondern auch tmus und rops gekürzt
 
Doch hat es. Es werden nicht mehr Shader sein. Einfach das verfügbare MUl aktivieren und mit mehr Takt laufen lassen. Dann bekommt etwa 30% mehr Leistung.

mfg Nakai
 
was ist denn diesen MUL??? ich hab noch nie davon gehört. 30% zuwachs dardurch wären natürlich sehr krass...

€dit: habs schon ergoogelt:
eine pioe des G80 kann theoretisch pro takt. 1Mul+1ADD+1Mul (multiplikation/addition) ausführen. die letzte Mul kann allerdings nicht ausgeführt werden, was eine große verschwendung an rehcnenleistung darstellt.

glaubt ihr, dass nvidia den bug gefixed kriegt?
 
Zuletzt bearbeitet:
@nakai
wovon träumst du nachts?
durch das MUL bekommst du nie im leben 30% mehr performance
schau mal was ati mit dem r580 gemacht hat, da wurd die arithmetikleistung verdreifacht
also aus 1xMADD -> 3xMADD, und dann warens bei weitem keine 30% und die willst du von 1xMADD nach 1xMADD + 1xMUL erreichen?

PS: deine aussage hat trotzdem noch nichts mit dem post von HugeXL zu tun
 
@bensen:
Ich spreche schon wieder in der Sprache des "Volksmunds" und meine natürlich auch ROPs und TMUs wenn ich von "Shadern" spreche.
Ist sone Angewohnheit, früher hat jeder von "Pipelines" gesprochen und hat damit auch jedes mal was anderes gemeint ;)

@Nakai:
Wie bensen schon bemerkt hat: Ich verglich 8800GTS mit GTX, die defekte 2. Mul haben beide Karten ;)
 
Oh Mann ist lesen so schwer für euch?!:lol:

Ich habe nicht nur von dem MUL geschrieben, sondern auch von taktsteigeurng auf 700Mhz.
Eine Geforce 8800GTX hätte dadurch schon locker 21% mehr Füllrate. Durch das MUL können theoreisch 50% mehr Shaderleistung erzielt werden, also eben die angegebenen 518GFLOPs. Bisweilen schafft die Geforce 8800GTX, knapp 345GFLOPs.

Und wenn due 8900GTX mit 700Mhz getaktet ist(der Shadertakt auch erhöht), dann kann sie etwa 30% schneller sein als eine 8800GTX.

@Nakai:
Wie bensen schon bemerkt hat: Ich verglich 8800GTS mit GTX, die defekte 2. Mul haben beide Karten ;)

Und? Ist auch der gleiche Chip...

@nakai
wovon träumst du nachts?
durch das MUL bekommst du nie im leben 30% mehr performance
schau mal was ati mit dem r580 gemacht hat, da wurd die arithmetikleistung verdreifacht
also aus 1xMADD -> 3xMADD, und dann warens bei weitem keine 30% und die willst du von 1xMADD nach 1xMADD + 1xMUL erreichen?

Theoretisch verdreifacht, aber praktisch gerademal verdoppelt.

1. Es waren keine 1xMADD, sondern ein MADD+ADD-3+1-Shader. Also der Shader des R580 besteht schonmal aus 2 ALUs, eine scalare und Vec3-ALU, jede davon kann MADD+ADD berechnen.
Eigentlich sollte man es so sehen:
Theoretisch also 3 Shader die je 4 MADDs und 4 ADDs berechnen können (Aber auch nur wenn man die Einheiten alle einzeln zählt).

2. Das MADD+MUL ist im G80 vorhanden, ein Treiberupdate kann diese aktivieren.

3. Lesen ist doch nicht zuviel oder?


mfg Nakai
 
Zuletzt bearbeitet:
Ihr wisst aber schon, dass das MUL derzeit nicht untätig ist? Wenn das MUL auch nicht das tut, was man von ihm erwarten würde.
 
Deswegen frage ich mich, ob diese MUL überhaupt aktivierbar für Shaderberechnungen ist.
Nach einigen Leuten sollte sie das bei einem Driverupdate werden, ob das wirklich der Fall ist, frage ich mich gerade. Wenn es beim G80 nicht der Fall ist, wird es auch nicht beim G81 gehen, dafür sind die Art der ALUs zu eingeschränkt änderbar.

mfg Nakai
 
wolfgang, ich hasse solche nichtssagenden antworten!

möchtest du uns nicht aufklären? ich hab bisher nur gelesen, dass immer nur EINE ADD und EINE mul stattfindet!
 
Eigentlich hat der G80 16 Vec8-ALUs. Die sind immer in Blöcken von 8 scalaren ALUs zusammengefasst.
Jedes TCP, es gibt 8 an der Zahl, im G80 besteht aus 16 SPs. Diese sind in 2 Blöcken zu je 8 SPs angelegt. Diese 2 Blöcke sind SIMD-artig angebunden. Jeder SP aber MIMD.

Das fehlende MUL gehört eigentlich gar nicht wirklich zum Shadercore, sondern arbeitet an Perspectiven-Korrektur und an Attribut-Interpolation.
Deswegen ist es auch schwer sie als Shader zu verwenden, sie ist mit anderem Zeug beschäftigt.

mfg Nakai
 
kannst du dass mal bitte verständlicher für nicht-insider erklären? ich verstehe nur bahnhof
 
Das MUL für den G80 ist mit anderen Sachen beschäftigt, es macht keine Shaderberechnungen wie es eigentlich gemeint ist.

Es korrigiert eben die Perspektive und interpoliert Attribute.
Die perspektiven Korrektur und das Interpolieren der Attribute ist eben wenn 3Dimensionale Objekte in 2D dargestellt und auftretende Fehler behoben werden.
Also bezüglich Farbe, Verzerrung etc.

Mehr kann dazu nicht sagen.

mfg Nakai
 
[gerücht mode on]

ich schätze der "bug/defekt" war absicht um dann beim release des R600 kontern zu können.

Wahrscheinlich wird dann der Treiber einfach so umgeschrieben das der den MUL richtig anspricht bzw dann für die Leistungsteigerung sorgt

[gerücht mode off]
 
Wie wo :-) Ich wollte mir jetzt auch eine 8800 zulegen, aber wenn Sie ein defekt hat, warte ich lieber noch :D

Meint ihr, dass zu Cebit schon eine Ultra vorgestellt wird?

Mfg Selflex
 
hi

ich bin mir nicht ganz sicher
aber
wollte nvidia eigenltich keine refreshchip rausbringen
sondern sich auf den g90 konzentrieren?

wenn ja versteh ich nicht warum hir darüber geredet wird :p
 
Zurück
Oben