News Nvidia GT300 mit 512 Bit und GDDR5?

Wird sicher ein Leistungskracher, aber 2D Stromparen und ne vernünftige Kühlkonstruktion sind hoffentlich diesmal auch an Bord.
 
Irgendwie muss Nvidia den Vorsprung von ATI (RV870 soll ein Quartal früher kommen) ja ausbügeln.
 
Eine Frage: Was wird das Kosten und wer soll das bezahlen?

GGDR5 teuer, SI teuer .. Karte teuer
Bisher hat das doch gut geklappt: GDDR5, kleineres SI - GDDR3, hohes SI.
Mal schauen ob doppelt auch doppelt gut ist. Preislich wird man damit aber wohl erst recht nicht mit ATI mithalten können.
 
@Drachton Nvidea ist preislich immer über ATI wird sich da auch nicht viel ändern ;)
 
Irgendwie fährt nVidia imho in letzter Zeit zu sehr auf der "Masse macht Klasse"-Spur.

Ich befürchte, dass wo früher noch einer eine hochpreisige 8800GTX gekauft hat, heute die Mittelklasse so nah an der Spitze dran ist, dass der es sich 2x überlegen wird ob er doppelten Preis für 20%-Leistungsgewinn zahlen wird.
 
Zuletzt bearbeitet:
welcher Mensch braucht schon 2 GB VRAM??
1 GB ist ja ok aber 2 finde ich nicht sehr sinnvoll es sei denn man zockt gern auf 2560 x ....und 8xAA
 
Da bin ich mal sehr gespannt drauf!
Mal schauen ob sie das Problem mit der hohen Stromaufnahme im IDLE des Speichercontrollers in den Griff kriegen. ATi hat ja mit den Einsatz von DDR5 schon Erfahren damit und wird wohl einen Vorteil haben, aber erstmal schauen.

Der Rest der Karte klingt für mich so, das es dass maximale ist was derzeit geht ^^

@ugur44 Für PS oder CAD bspw
 
hmm... bei 512bit SI wird der Chip ja wieder erneut riiiiesig ausfallen :rolleyes:
Habe gedacht dass nVidia daraus gelernt hat und sich in zukünftig nur noch kleine Chips herstellt?
Natürlich werden die Chips Jahren voraus geplant und entwickelt, aber schon der G80 bzw. G200 war ein riesen Ding :freaky:
 
ugur44 schrieb:
welcher Mensch braucht schon 2 GB VRAM??
1 GB ist ja ok aber 2 finde ich nicht sehr sinnvoll es sei denn man zockt gern auf 2560 x ....und 8xAA

Was soll immer dieses unnötige Gespräch? Vor einem Jahr hieß es noch "wer braucht schon 512 MB", heute kauft sich keiner mehr High End-Karten unter 1 GB. Bis der GT300 rauskommt, sind 1 GB Standard, und wer so ne Karte hat, will die auch 1-2 Jahre nutzen, und in 1 Jahr sind 2 GB sicher nicht mehr überdimensioniert.

Und was 512 bit + GDDR5 angeht: wenn sich die Shaderleistung bzw. die Leistung der GPU verdoppelt, dann kann es nicht schaden, auch einen ordentlichen Speicherdurchsatz zu haben, grade bei hohen AA-Modi!

Project-X schrieb:
hmm... bei 512bit SI wird der Chip ja wieder erneut riiiiesig ausfallen :rolleyes:
Habe gedacht dass nVidia daraus gelernt hat und sich in zukünftig nur noch kleine Chips herstellt?
Natürlich werden die Chips Jahren voraus geplant und entwickelt, aber schon der G80 bzw. G200 war ein riesen Ding :freaky:

Wir reden hier von 40nm, nicht von 65nm wie beim ersten GT200!
 
Ich bin mir sicher, das die Wattzahlen sich immer weiter in die Höhe schrauben.
Irgendwann, vielleicht ab GT400, werden die Spitzenmodelle(ohne SLI aber wahrscheinlich Multicore) eine Wakü brauchen, was den Systempreis ordentlich in die Höhe treiben wird.

Dann wird es Performance/Enthusiasten-Gamer-maschinen geben, die die aktuelle Grafik darstellen können, die aber bei ca. 1.500/1.600Euro liegen werden, und dem Rest, der diese Grafik nicht mehr darstellen kann.

Aber dazu müssen auch die Hersteller der Spiele eine Schippe drauf legen, denn was da 2008 bis jetzt veröffentlicht wurde, begeistert niemanden so recht 1.500/1.600Euro auf den Tisch zu legen.
 
512bit wäre geil mit 256MB/s noch bissel höher takten auf 2400Mhz i/o takt und schon hätte man mehr Bandbreite^^
 
hmm... bei 512bit SI wird der Chip ja wieder erneut riiiiesig ausfallen

Hab ich mir auch gedacht, billig kann der nicht zu produzieren sein. Und wenn TSMC jetzt schon mit Yield-Problemen kämpft, was werden die dann erst bei nem Monster-Chip machen. Zu erwarten war das trotzdem irgendwie. Erst seit der HD3-Serie (2 Jahren) geht ATI auf kleinere Chipfläche, erst seit 1 Jahr (HD4) wissen wir, dass der Ansatz besser ist. Die Entwicklung eines Chips soll so grob 3 Jahre dauern, dann wird nv wohl erst in 1-2 Jahren was entsprechendes bieten.

Wenn die Gerüchteküche inquirer Recht hat, dann kommt der Chip erst 2010. Die sind zwar nicht sonderlich seriös, aber die bisherigen Gerüchte zum GT300 von deren Seite haben sich doch erstaunlich gut gemacht.
 
Die Bandbreite muss auch erstmal genutzt werden, oder hat hier jemand Bandbreitenprobleme - bis 1920x1080 is das doch alles kein Problem.

Der Stromverbrauch würde mich ja auch mal interessieren und wenn der neue Chip so viel mehr Transistoren hat, wie vermutet, dann würd mich die Kühlung auch mal sehr stark interessieren, denn ich denk ma die wird auch trotz 40 nm ein großes Problem darstellen.
 
Da kann mann nur abwarten und schauen was dann wirklich stimmt, aber beeindruckend währe so ein Speicherdurchsatz allemal wenn dieser dann auch was bringt.

Das Sie das Speichermanagment verbessern ist gut dann kommen die VRam Probs nicht mehr zum tragen.

Binn schon sehr gespannt was dabei rauskommt, vor allem mit was für Preise das wir uns wieder ärgern dürfen.
 
stna1981 schrieb:
Und was 512 bit + GDDR5 angeht: wenn sich die Shaderleistung bzw. die Leistung der GPU verdoppelt, dann kann es nicht schaden, auch einen ordentlichen Speicherdurchsatz zu haben, grade bei hohen AA-Modi!

ich seh auch ca eine verdoppelung der leistung einer gt200. vll auch mehr. alles andere macht aber auch keinen sinn
die grafikkartenhersteller sollen endlich wieder daran arbeiten dass leistung im überfluss vorhanden ist, und jedes spiel in höchster qualität mit über 60fps rennt. so wie beim erscheinen der geforce 8. die letzten 1, 2 jahre mit crysis, far cry 2, stalker clear sky waren ja lächerlich zum quadrat. diese spiele waren nicht mal so der grafische fortschritt gegenüber dem was es gab, und sind jetzt noch nicht spielbar auf top hardware. da muss sich wirklich mal was ändern. aber zumindest die preise waren die letzten 1, 2 jahre human
 
Die Shaderleistung zu verdoppeln ist ja keine schlechte Sache, das schadet den Framerates garantiert nicht, aber wozu so eine riesige Speicheranbindung? Zumindest auf dem Spielesektor muss der Speicherdurchsatz nur ausreichen, um den Chips mit unkomprimierten Texturdaten zu füttern, und da wäre ein so gigantisches Speicherinterface hoffnungslos unterfordert.
Das Resultat wäre nur eine noch höhere Leistungsaufnahme und erhöhte Kosten, weil der Chip ein gutes Stück größer wird.

Für GPGPU Anwendungen kann die Anbindung vielleicht sinnvoll sein, aber für den Spielemarkt sollte sich nVidia überlegen, ob sie eine Version mit 512 Prozessoren und 256bit Speicherinterface rausbringen. Dafür müsste man aber wieder zwei Chips entwickeln, weil man von den 512bit ja nicht einfach die Hälfte abschneiden kann...

Mal schauen, ob sich die Gerüchte bewahrheiten, ich würde es - aus Spielersicht - nicht unbedingt begrüßen. nVidia sollte wissen, wo seine Zielgruppe ist.
 
laresx5 schrieb:
Ich bin mir sicher, das die Wattzahlen sich immer weiter in die Höhe schrauben.
Irgendwann, vielleicht ab GT400, werden die Spitzenmodelle(ohne SLI aber wahrscheinlich Multicore) eine Wakü brauchen, was den Systempreis ordentlich in die Höhe treiben wird.

Glaub ich nicht. NVidia wird dann blos mehr selektieren müssen. Da zeigt die 65nm GTX 280 ja was möglich ist, viele Exemplare laufen da mit 1,06V stabil, einige sogar mit 1,03V (Standard 1,18V). So lässt sich der Stromverbrauch und die Abwärme deutlich senken. Das bedeutet aber natürlich mehr Aufwand für nVidia und ein knapperes Angebot, was sich deutlich im Preis niederschlagen dürfte.
 
das wurde aber mal Zeit mit DDR5, da wird wohl meine nächste Graka von Nvidia werden :-)
 
Also mein zuletzt gekauftes Spitzenmodell von Nvidia war die NV40 alias 6800Ultra. Von 2004 hab ich bis 2008 alle Spiele (inkl. Crysis) spielen können.

Nun, da ich mit der HD4850GS von ATi auf die fresse gefallen bin, wirds wohl eine Nvidia werden. Verschiedene Gründe sprechen für die GT300:

*nHancer
*kein "nur EXE Problem"
*Supersampling (gibts bei ATi nicht)
*bis zu 64xHQAF (gibts bei ATi auch nicht)
*CUDA (geil ist vReveal. sowas gibts nichtmal gegen Geld bei ATi)
*PhysX (genügend Spiele, bei ATi bisher nur 5 DX10.1 Spiele)
*DirectX 11
*höchste Kompatibilität und Stabilität (eigene Erfahrung)
*ausgewogenere Energieverwaltung als bei ATi (Siehe Durchschnittswert der CB Artikel)
*bessere Treiber (eigene Erfahrung)

Von ATi bin ich schwer enttäuscht. Wenigstens den Avivo Converter in der Revision 2 hätten die verbessern können. Aber nein, mal wieder nur Müll und Pixelbrei. Nvidia kontert mit Badaboom und dem genialen vReveal.

Ich brauche im Herbst so langsam ein Update. Dann aber richtig. Und das wird die GT300 werden. Das hat nix mit "Aufgeilen" zu tun, das tun die ATi leute auch. Nur das bei denen die Shader nur für Spieleframes gebraucht werden können, bei Nvidia ist man längst flexibler.

Das DX10.1 Vorteil von ATi wird als Argument auch nicht mehr ziehen. Es sei den DX11.1 kommt kurze Zeit danach.

Die GT300 wird bestimmt eine fätte Karte. (...und schlicht meine...) :D

Greets
 
Zuletzt bearbeitet:
Zurück
Oben