News Kommt Nvidias GT300 mit 512 Shadereinheiten?

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.630
Nvidias GT200-GPU agiert nun seit Juni letzten Jahres auf dem Markt und duelliert sich mit dem RV770- und RV790-Pendant von ATi. Der GT200 wurde in der Zeit auf den 55-nm-Prozess umgestellt, weswegen der Rechenkern nun die Bezeichnung GT200b trägt. Doch wie geht es weiter bei Nvidia?

Zur News: Kommt Nvidias GT300 mit 512 Shadereinheiten?
 
Hoffentlich bewahrheitet es sich, wenn dann noch etwas feintuning an der Hardware und an den Treibern gemacht wird, wird es sicher eine tolle Serie.
 
Hört sich ja nach einer extremen Rechenleistung an...


...aber hört sich auch nach einem eben so hohen Stromverbrauch an!

mfg
 
Unwahrscheinlich. Selbst mit 40nm wäre wenn man bedenkt wieviel Platz die NV Shader verbrauchen, der Chip nochmals größer als der GT200 in 65nm.
 
Wenn der so kommt, wäre es ein ziemlicher Kraftprotz, der aber auch hungrig sein wird.

DX11 wird er bestimmt haben.
 
Wenn das alles stimmt - vorallem mit der Performance bei der Double-Precision-Berechnung wird der Chip bald zu schade für schnöde 3D Spiele ;-)
 
...aber hört sich auch nach einem eben so hohen Stromverbrauch an!
In der Gerüchteküche liest man, dass Nvidia insbesondere beim Energieverbrauch enorme Fortschritte gemacht hat. Und da waren sie bereits beim GT200b besser als AMD. Unter Volllast könnte es natürlich extrem sein.
 
Also wenn der Chip später wirklich so kommt, dann muss er eine Traum Leistung haben. Und ich bin mir ziemlich sicher, dass er auch Direct X 11 haben wird, weil alles andere wäre irgendwie unlogisch. Man darf jtzt schon gespannt sein.
 
klingt nach ner wahren bombe was nvidia platzieren wird... bin ich echt ma gespannt. vor allem auf die reaktion von ati bin ich gespannt, denke mal, nach der guten 4000er serie werden die nicht schlafen und ebenfalls was brauchbares bringen...
 
Mich würde intersierren ob der GT300 endlich auch DX 10.1 oder sager 11 unterstützen würde das interessant
 
melemakar schrieb:
Hört sich ja nach einer extremen Rechenleistung an...


...aber hört sich auch nach einem eben so hohen Stromverbrauch an!

mfg

Das hört sich nur danach an, dass die Auslastung der Shader effizienter wird, also der Chip - angenommen er hätte gleich viel Rechenleistung wie der GT200 - etwas effizienter arbeiten würde.

Der Stromverbrauch könte unter Last wirklich auf GT200 Niveau liegen.

Hier noch eine wage Berechnung der DIE-Size von mir:

Ausgehend von RV730 =320Shader = ca 140mm² in 55nm
RV740 =640Shader = 147mm² in 40nm also etwa halbierung bei gleicher Shader Anzahl

somit ergäbe sich GT200b 55nm 240 Shader ca. 470mm²
GT300 40nm 512 Shader ca. 500mm²

Vermutlich wird die DIE-Size durch optimierungen am Design noch etwas schrumpfen, somit
wird sie vermutlich so 450-470mm² betragen.
 
Ja, da mache ich auch mit, meine 9800GT muss mal ersetzt werden.... GTS250 hört sich doch viel Leistungsfähiger an.... ach ja, die war ja nur umgelabelt... egal...

Also ich spare mein Geld auch, und das was besser ist, wird gekauft, egal ob das zeug jetzt grün oder rot ist (vielleicht sogar blau oder röter?!)

Aso, ps:
Mischung aus SIMD (Single Instruction, Single Data)
Sollte das nicht heissen Single Instruction,Multiple Data ???
 
SIMD ist doch vermutlich eher die Abkürzung für (Single Instruction, Multiple Data) und nicht wie im Text angegeben Single Data?
 
Ich kanns kaum erwarten, bis der GT300 endlich raus ist :D Auf die Rechenleistung bin ich auf jeden Fall gespannt, wird ja viel versprochen..
 
Dazu noch 2GB GDDR5 Speicher bei 512bit Speicherinterface und Crysis wird dann über 2 Jahre nach Erscheinen @FullHD@Very High möglicherweise flüssig spielbar sein......
 
Na dann hoffe ich mal, dass das nicht wieder in der Fertigung so ein verdammt teurer Chip wird. Mit dem 200er ist da Nvidia ziemlich auf die Schnauze gefallen.
 
Almost schrieb:
Mich würde intersierren ob der GT300 endlich auch DX 10.1 oder sager 11 unterstützen würde das interessant

Warum? Gibt doch noch gar keine Software dafür, wird es auch in ein oder zwei Jahren wahrscheinlich noch nicht geben, ist also völlig umsonst.

Edit: Gut, es gibt ein oder zwei DX10.1-Proggis. Aber ist mir als XP64-Benutzer sowieso egal^^
 
Zurück
Oben