News Kommt Nvidias GT300 mit 512 Shadereinheiten?

Endlich mal kein Refresh-Chip. Hoffentlich bringt der auch die doppelte Leistung wie sein Vorgänger, wenn er schon mehr als doppelt so viele ALUs hat.

Gruß Timo
 
bevor man jetzt schon Nvidia lobt sollte man die tatsächliche leistung abwarten un keine voreiligen schlüsse ziehen über den achso schnellen GT300 hatt man schon vieles gehört
was der GT300 wirklich leistet wird man im vergleich zur HD 5870 sehen solange sollte man eig noch keine firma loben beide hatten schon einige performence sprünge gemacht aber ich denke alles im allem ist keine Firma besser oder schlechter
 
Eigentlich hatte Nvidia doch verlauten lassen, nicht mehr auf Monster-Chips zu setzen und eher den modularen Ansatz von ATI aufzugreifen. Würde auch Sinn machen, denn schließlich lässt sich mit so einem Monster kaum Geld verdienen, sondern eher Prestige erwerben. Aber das braucht Nvidia momentan nicht, sondern verkaufbare Grafikchips. ATI wildert ja eben gerade in den Marktbereichen mit großem Verkaufsvolumen (siehe 4770).

Ich halte die Ankündigung für eine Reaktion auf die Ankündigungen seitens ATI / AMD, die schon kurz nach Mitte des Jahres einen DX11-Chip auf den Markt bringen wollen. Wirklich glaubwürdig erscheint mir so ein Monsterdesign von Nvidia aber nicht. Ich denke eher, dass der GT300 vielleicht Design-Möglichkeiten für eine bessere Verbindung der Chips auf Dualkarten haben wird. DIe Hälfte der Rechenleistung mit deutlich kleinerem Chip und der Möglichkeit ohne große Verluste zwei davon auf eine Platine zu packen scheint deutlich erfolgversprechender als eine Neuauflage eines NV-Monsterchips.
 
Die Meldung brachten sie aber erst vor nem halben Jahr, die Entwicklung des GT300 läuft vermutlich schon seit mindestens 2 Jahren.

Beim GT300 könnte gibts bei nV viel neues, zumindest was Technik Sachen belangt. Bei der HD5k Reihe weiß man doch kaum was neues oder? Mehr SP´s und überarbeitete Architiktur, oder kommt das auch ne große Änderung?
 
isigrim

Kommt frühestens in der nächsten Generation - als NVidia das gesagt hat, war die ganze Planung für den GT300 und evtl auch schon für den Nachfolger doch schon abgeschlossen bzw voll in Gange, die können nicht einfach so den Schalter umkrempeln und ihre Produktion um 180° drehen.
 
Spekulationen und massig wilde halbgare Postings dazu.....Nur weil die Karte doppelt so viele Shadereinheiten hat ist sie noch lange nicht doppelt so schnell. Eal ob ATI oder NV, beide streuen gerne mit Zahlenhäppchen und es ist immer das Selbe. Jede Generation verspricht unglaublich, gigantische Leistungszuwächse, von denen in der Realität mit viel Glück 10 - maximal 20 % übrig bleiben pro Generation. Natürlich gibt es immer wieder auch mal Ausreisser, aber eben nur selten. Wir alle hier und gerade die ganzen Gamer Kiddys, die sich die Karten von Papi kaufen lassen sollten mal lieber warten bis die Benchmarks von echten Karten folgen.
 
Klar, stimmt, die Entwicklung läuft ja schon ziemlich lange. Andererseits hat sich der Markt für Grafikkarten in den letzten Monaten dramatisch verändert.
Ich denke es würden mit einem solchen CHip einige Schwierigkeiten auf Nvidia zukommen, wenn die Anforderungen an die Hardware nicht deutlich steigen oder sich GPGPU schnell durchsetzt (Was sicher eine der größten Hoffnungen von Nvidia überhaupt ist). Sollte dieses Gerücht zutreffen, dann wird das ein absoluter Luxuschip, der sich aber nur dann gut verkauft, wenn es auch Anwendungen dazu gibt und die sehe ich momentan kaum.
 
Letztendlich ist das schön mit heißem Wasser kochen egal ob nun ATI oder Nvidia.

Was nun dabei rauskommt oder nicht das werden wir schon noch erfahren die nächsten Wochen.
Ich freue mich jedenfalls auf die neue Generation, denn zu Weihnachten kommt mir so eine ins Haus.
Wenn man sowas liest könnte man sich schon vorstellen das der Sprung groß wird, man weiß es aber nicht :)
 
Alle Jaaahre wiieeder... ;)

Bei jeder Generation sind immer alle aus dem Häuschen...Leute: Die Lesitung verdoppelt sich sowie alle 18 Monate...also was solls. Immer schön locker bleiben und freuen, dass euer heute gekaufte Rechner in einem halben Jahr sowieso nicht mehr "mithalten" kann. So ist das nun mal :D
 
1337 g33k schrieb:
Warum sollten die ihre Know-How beim SI über Bord werfen und weniger machen? Der GT200 schafft in der GTX28x auch 512bit.
...
Aber weniger machen sie bestimmt nicht!
Weißt du eigentlich, wofür das SI gut ist?
Das SI muss so dick sein um den Datendurchsatz von GDDR3 gegenüber GDDR5 zu kompensieren.
Vorteile für den Kunden: ???
Nachteile für den Kunden: teuer

r4yn3 schrieb:
Das hat weder was mit Knowhow noch mit "schaffen" zu tun.
256bit bei GDDR5 hat eine höhere Bandbreite als 512bit und GDDR3, nur ist der GDDR5 im normalfall sogar sparsamer und man spart sich nochmal einiges am PCB selbst.
256bit GDDR5 ist in etwa gleich 512bit GDDR3 vom Datendurchsatz her. Die GDDR5 Variante ist nur eben billiger und unter umständen stromsparender, sofern es keine Fehler gibt.
 
mit dem chip läuft crysis auch endlich auf very high flüssig genug für den Multiplayer!!! ^^
 
ja wurde ja schon angesprochen, so ein chip wäre für nvidia eher ein disaster. Damit würde das spiel das seit dem rv7xx von ati los ging weiter gehen. Klar nen kern an leuten die multi-gpus ablehnen und nvidia fanboys kann man so behalten, vielleicht auch mehr wenn man mit dem preis recht weit runter geht, aber dann ist die marge so viel schlechter wie von amd, das nvidia kaum mehr gewinn damit erwirtschaften kann.

Wenn das so raus kommt dann wird das nächste jahr wohl nvidia die marktführerschaft abgeben müssen. Aber das fänd ich jetzt nicht wirklich schlimm ^^
 
ich bin schon tierisch gespannt wer bei dem rennen den kopf vorne haben wird, mir mich steht zumindestens definitiv fest, dass meine gute alte 8800gtx gegen eine neue karte ausgetauscht wird, ob ati oder nvidia wird sich noch weisen :)
 
H€553

Naja die Geforce 4 war super die 5 ist beschissen gewesen und die 6 ging wieder so. War da nicht was, dass man bei der 6 irgendwas freischalten konnte. Irgendwelche Pixel Pipes und dann die 7 naja und die 8 war wieder super, der Hammer schlecht hin. Die 200 zur 8 also dem 80 hält sich in Grenzen und diese verspricht wieder der absoluter Hammer zu werden. So ist das gemeint gewesen.


Denke auch das der Verbrauch sich in Grenzen halten wird. Im Idle wird der wohl nicht so hoch sein durch die neue Fertigung und naja wenn die unter Last etwas mehr verbraucht ist es halt so. Ist HIGH END. Es werden auch da wieder Karten kommen die abgespeckt sind und weniger verbrauchen. Also wird da für jeden etwas dabei sein.

Wen ich da wieder einen wegen doppelpost kriege flippe ich aus. Ich möchte betonen, dass da ein Beitrag zwischen gestanden hat und dieser von CB gelöscht wurde und darum mein zweiter Text unter den ersten gerutscht ist. (Seite 4)
 
Zuletzt bearbeitet:
Nur ne Vermutung, aber es ist nicht ausgeschlossen das beim g300 nvidia auch auf ggd5 setzen wird was den verbrauch etwas eindämmen könnte.

yep die 6800le war das leistungswunder.
Ich hatte zwar nur die 6600gt war aber trotzdem zufrieden.
 
r4yn3 schrieb:
Beim GT300 könnte gibts bei nV viel neues, zumindest was Technik Sachen belangt. Bei der HD5k Reihe weiß man doch kaum was neues oder? Mehr SP´s und überarbeitete Architiktur, oder kommt das auch ne große Änderung?

Die HD5K soll auch ein komplett neues Design sein, von daher wird es spannend ;)
 
Wichtigste Frage bleibt beim Speicher.
GDDR5 sollte Pflicht sein, ebenso wie die gleichzeitige Reduzierung des Interfaces auf 320/384-bit (mehr is aber wirklich nicht zwingend nötig).
Auch Verbesserungen bei 8x AA wären ganz dufte, da hat nVidia irgendwie seit dem G92 ziemlichen Mist verzapft.
 
dorndi schrieb:
Du weißt aber schon, dass das eine high end karte wird, bei der fast nur die leistung zählt?
Das war der G200 auch. Vernünftige Mittelklasse Karten, im Bereich von 50-150 Euro, die für mich und viele andere interessant wären, sucht man immer noch vergebens. Stattdessen wird einfach der G92 umgelabelt. nVidia zäumt das Pferd wieder mal von der falschen Seite auf. Eventuell sollten sie mal einen Blick Richtung ATI riskieren. ;)

r4yn3 schrieb:
@riDDi: Wieso sollte nV bewusst die Effizienz senken? Nur für ne höhere Rechenleistung in GPGPU Anwendungen?
Wieso Effizienz senken? Man kann als Designer auch mit Rechenleistung/mm² arbeiten. Was übrigens viele machen. Die Anzahl an Shadern bzw Streamprozessoren ist nicht wirklich entscheidend. Alles eine Frage des Konzeptes.
 
Zurück
Oben