News Nvidia GT200 mit 200 ALUs und 512-Bit-Interface?

Drittel Quartal.. bis dahin kann noch so viel passieren...

Guten Appetit bei den Keksen und dem Tee!
 
Endlich wieder mal was, das nach "High-End" beziehungsweise sogar "Enthusiast" klingt, ohne dabei auf irgendwelchen (G)X2-Blödsinn zu setzen. Ich hoffe die Leistungssteigerung fällt so toll aus, wie ich sie mir erhoffe...
 
Da kann man schon mal mit dem Sparen anfangen, vielversprechend hört es sich auf jeden Fall an.
___
Fox
 
Oha... Interessant Interessant... ich kanns schon kaum erwarten.
Bei eine 512bit Speicheranbindung bräuchte man nicht mal GDDR4, und da würde auch 1GHz getakteter GDDR3 reichen (Effektiv 2GHz).

Jetzt Frage ich mich allerdings, wo bleibt denn der G100? Und seit wann heisst es GT200 anstatt G200?
 
Das klingt auf jeden Fall nicht schlecht, aber erst die tests werden die leistung zeigen, werde mir ende des Jahres nen neuen Rechner holen, vllt. mit dem GT200
 
ach, nvidia bekommt das bestimmt wieder hin auch dieses modell leistungstechnisch irgendwo im bereich der uralten gtx ultra anzusiedeln :/


ich glaub langsam nicht mehr an nen deutlichen leistungssprung im nicht-sli-bereich, aber hey - ist ja nur noch nen halbes jahr, dann wissen wir mehr.
 
wow das nenn ich mal Leistung..;)

freu mich schon auf die Benchmarks:D
 
Project-X schrieb:
Jetzt Frage ich mich allerdings, wo bleibt denn der G100?

Wenn ich mich recht erinnere kommt jetzt der G200 weil die Architektur des G100 schon auf DirectX 11 bassiert und das ja erst in 2 jahren oder so kommt. deswegen haben sie den G100 zurückgestellt um dazwischen noch was zu haben.
 
Naja, Speicheranbindung ist nicht alles ;-)
Das weiß man spätestens seit der 2900XT, die ja einfach zu wenig Textureinheiten hat, aber das hat hiermit nichts zu tun...
Das ist ja ein andres Thema...
Irgendwann wird Nvidia GDDR5 einsetzen, aber anscheinend beim GT200 nicht!
ATi hat geplant GDDR5 einzusetzen, bin mal auf die Leistungssteigerung gespannt!
 
Was soll die News?

Da hätte man auch schreiben können:

Sitzt der Hahn aufn Mist, wird es morgen regnen oder eben nicht.

Also wird man hier nur aufmerksam gemacht... Boar... eine GT200 News

Aber es steht nichts weiter drin.

Da hätte auch gereicht: Der GT200 wird 200 Shaderprozessoren haben, oder eben auch nicht!

:freak:

Sinnlos!
 
Dass ATI und Nvidia mit den neuen Karten so bummeln ist äußerst ärgerlich. Andererseits: Dann lohnt es sich doch noch eine 8800GTX für 240 EUR zu kaufen ;).
 
Bei einem 512bit SI könnte NV unabhängig vom teurem GDDR5 agieren und genügend VRAM verbauen.
Zudem werden die ganzen 256bit Basher begeistert, die nicht wissen, was Bandbreite bedeuted.

Die 200 ALUs zeigen schon deutlich, was von der News zu halten ist: Nichts.
Realistische Angaben sehen anders aus.
Ich gehe weiterhin von einem 256bit SI bei GDDR5, wie bei AMD, aus.
 
Endlich mal eine positive Entwicklung seitens nVidia.
Bei einem vergrößerten Speicherinterface könnte man durchaus bei den bisherigen Taktraten und evtl sogar auch bei GDDR3 Speicher bleiben, und bekäme trotzdem den doppelten Speicherdurchsatz.
Inwiefern das Verzichten auf besseren Speicher (GDDR4/5) sich was die Kosten angeht mit größerem Speicherinterface die Waage hält, weiß ich leider nicht.
Hat da jemand vielleicht verlässliche Informationen?

Hoffentlich verkrüppeln sie den neuen Chip dann nicht wieder mit mageren 512 MB VRam :D
Das fand ich ja auch schon bei der 9er Serie - vor allem der GX2 (pro Chip) - total lächerlich.
Mindestens 1.024 MB sollten wohl schon drin sein, damit die neuen Karten dann auch unter Auflösungen jenseits der 1920x1200 mit AA/AF nicht einbrechen.
Dann hätten die *****verlängerungs-Freaks wenigstens wieder etwas, womit sie sich gegenseitig anprahlen könnten :D
 
Ich denke das ist wieder so ein schlechter Witz von denen. Die HD 2900 Pro/XT hatte auch 512 Bit und GDDR 4 und was hats gebracht? Nichts die Karte war scheiße. Und wenn die Karte keine 100% schneller ist als ne ULTRA was bringts dann? Es müsste so ein Sprung sein wie von Geforce 7 auf 8. Aber NVidia baut halt nur MIST. Wenn die 512 bit nicht gut verwaltet werden was bringen sie dann? Aber man kann wieder nur warten.
Hoffentlich macht ATI mit dem R770 Nvidia kaputt.


mfg Kivi
 
wen interessiert der stromverbrauch? hierbei gehts um High-End :king:
 
@Kivi 123

Das Problem bei der HD2900XT war aber nicht die Speicheranbindung, sondern die zu geringen Textureinheiten im Gegensatz zur Ultra, die Ultra hat 64 und die 2900XT nur 16...
 
Zurück
Oben