Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia GT200 mit 200 ALUs und 512-Bit-Interface?
Um den GT200, dies wird voraussichtlich der Codename für Nvidias neue High-End-GPU werden, ist es in letzter Zeit etwas still geworden. Nun haben die Kollegen von NordicHardware ein Gerücht hervorgeholt, was unserer Meinung nach gar nicht so unwahrscheinlich ist.
Endlich wieder mal was, das nach "High-End" beziehungsweise sogar "Enthusiast" klingt, ohne dabei auf irgendwelchen (G)X2-Blödsinn zu setzen. Ich hoffe die Leistungssteigerung fällt so toll aus, wie ich sie mir erhoffe...
Oha... Interessant Interessant... ich kanns schon kaum erwarten.
Bei eine 512bit Speicheranbindung bräuchte man nicht mal GDDR4, und da würde auch 1GHz getakteter GDDR3 reichen (Effektiv 2GHz).
Jetzt Frage ich mich allerdings, wo bleibt denn der G100? Und seit wann heisst es GT200 anstatt G200?
Das klingt auf jeden Fall nicht schlecht, aber erst die tests werden die leistung zeigen, werde mir ende des Jahres nen neuen Rechner holen, vllt. mit dem GT200
Wenn ich mich recht erinnere kommt jetzt der G200 weil die Architektur des G100 schon auf DirectX 11 bassiert und das ja erst in 2 jahren oder so kommt. deswegen haben sie den G100 zurückgestellt um dazwischen noch was zu haben.
Naja, Speicheranbindung ist nicht alles ;-)
Das weiß man spätestens seit der 2900XT, die ja einfach zu wenig Textureinheiten hat, aber das hat hiermit nichts zu tun...
Das ist ja ein andres Thema...
Irgendwann wird Nvidia GDDR5 einsetzen, aber anscheinend beim GT200 nicht!
ATi hat geplant GDDR5 einzusetzen, bin mal auf die Leistungssteigerung gespannt!
Dass ATI und Nvidia mit den neuen Karten so bummeln ist äußerst ärgerlich. Andererseits: Dann lohnt es sich doch noch eine 8800GTX für 240 EUR zu kaufen .
Bei einem 512bit SI könnte NV unabhängig vom teurem GDDR5 agieren und genügend VRAM verbauen.
Zudem werden die ganzen 256bit Basher begeistert, die nicht wissen, was Bandbreite bedeuted.
Die 200 ALUs zeigen schon deutlich, was von der News zu halten ist: Nichts.
Realistische Angaben sehen anders aus.
Ich gehe weiterhin von einem 256bit SI bei GDDR5, wie bei AMD, aus.
Endlich mal eine positive Entwicklung seitens nVidia.
Bei einem vergrößerten Speicherinterface könnte man durchaus bei den bisherigen Taktraten und evtl sogar auch bei GDDR3 Speicher bleiben, und bekäme trotzdem den doppelten Speicherdurchsatz.
Inwiefern das Verzichten auf besseren Speicher (GDDR4/5) sich was die Kosten angeht mit größerem Speicherinterface die Waage hält, weiß ich leider nicht.
Hat da jemand vielleicht verlässliche Informationen?
Hoffentlich verkrüppeln sie den neuen Chip dann nicht wieder mit mageren 512 MB VRam
Das fand ich ja auch schon bei der 9er Serie - vor allem der GX2 (pro Chip) - total lächerlich.
Mindestens 1.024 MB sollten wohl schon drin sein, damit die neuen Karten dann auch unter Auflösungen jenseits der 1920x1200 mit AA/AF nicht einbrechen.
Dann hätten die *****verlängerungs-Freaks wenigstens wieder etwas, womit sie sich gegenseitig anprahlen könnten
Ich denke das ist wieder so ein schlechter Witz von denen. Die HD 2900 Pro/XT hatte auch 512 Bit und GDDR 4 und was hats gebracht? Nichts die Karte war scheiße. Und wenn die Karte keine 100% schneller ist als ne ULTRA was bringts dann? Es müsste so ein Sprung sein wie von Geforce 7 auf 8. Aber NVidia baut halt nur MIST. Wenn die 512 bit nicht gut verwaltet werden was bringen sie dann? Aber man kann wieder nur warten.
Hoffentlich macht ATI mit dem R770 Nvidia kaputt.
Das Problem bei der HD2900XT war aber nicht die Speicheranbindung, sondern die zu geringen Textureinheiten im Gegensatz zur Ultra, die Ultra hat 64 und die 2900XT nur 16...