GT200 - Nur ein Übergangschip?

Einhörnchen

Rear Admiral
Registriert
März 2007
Beiträge
5.137
So langsam habe ich den Eindruck, dass der GT200 Chip letztendlich nur ein absoluter Highendchip der aktuellen Generation (G80/G92) wird, mehr aber nicht.

Folgende Punkte stören mich doch sehr:
  • Kein DirectX10.1: Das wird von Nvidia zwar als bedeutungslos hingestellt, ist es aber im Hinblick auf die AA Qualität nicht. Was bringt ein Chip, der Crysis zwar in 1920x1200, Very High, AA und AF flüssig darstellen kann, aber das AA schlecht ist (Stichwort: MSBRW)?
  • Kein GDDR5-Support: Wenn ATi weiterhin auf moderne Fertigungsverfahren und Speichertechnologien setzt, können sie die GT200 Leistung in ein paar Monaten einholen. 2009 wird GDDR5 in Massen problemlos und günstig verfügbar sein. Dann ist das 512Bit-Speicherinterface eher ein Kostenfresser.
  • Der Chip ist so komplex und groß, dass er selbst bei einem Die-Shrink kaum als DualChip realisiert werden kann (40-45nm wird frühestens Anfang 2009 für Nvidia verfügbar sein). Geschweigedenn das 512Bit Speicherinterface beibehalten.
  • DX11 kommt vermutlich 2009, wahrscheinlich H1, optimistisch gesehen Q1.

Ich denke mit dem GT200 werden DX10 Spiele in hohen Auflösungen so flüssig laufen wie nie zuvor und er wird sicherlich auch die Leistungskrone bis Ende 2009 behalten. Zur Not folgt ein Die-Shrink auf 55nm => weniger Wärme, evtl. weniger Strom, Anpassung der Taktraten.

Unter diesen Gesichtspunkten vermute ich, dass Nvidia Anfang 2009 einen DX11 Chip rausbringen wird, der wirklich auf moderne Technologien setzt und eine neue Architektur darstellt. Darauf deutet auch folgender Slide aus einer Nvidia-Präsentation hin:
 

Anhänge

  • 79.jpg
    79.jpg
    20 KB · Aufrufe: 392
Oh, das is ja schrecklich :O .. aber egal.. Kaufen werden es trotzdem einige ^^
 
1. Crysis ist D3D10/9 was bringt da ein D3D10.1 Chip? MSAA ist eh am Ende, mit Blick auf Flimmer Crysis.
2. Irrelevant. Ja das dicke SI kostet, aber GDDR5 ist jetzt auch nicht so schnell umsonst. High-End Karten bleiben eh nicht so lange am Markt, daher wayne.
3. Wozu Dual Die? Warum? Ich sehe das als Vorteil, ein großer Chip ist 1000 mal besser als viele Kleine.
4. Ja. D3D11 kommt, genauso wie es schnellere Karten geben wird.

Jeder Chip ist immer nur ein Übergang, bis zum Nächsten.
:)
GT200 wird eventell endlich mal flüssiges D3D9 ermöglichen. :)
 
NA Super..

..können die nicht mal eine Ganz Neue KArte bringen die keine Übergangskarte ist ?

Die 9*** Serie war ein Übergang zur 200er und die 200er zu der nächsten !?

Hört das den nie auf?
 
Hört das den nie auf?

Nein. Wie Unyu ja auch schon treffend gesagt hat: Jeder Chip ist immer nur ein Übergang, bis zum Nächsten.
Amen.
 
Naja,

werde trozdem noch auf die 200er Serie warten und mir dann eine von dene hohlen ^^

Aber nur wenn die werte stimmen ^^
 
was willst du mit DX10.1 ? da hat nvidia schon recht, gibt ja noch gar keine Spiele die DX10 voll auslasten DX10.1 bei ATI ist nur nen verzweifelter Versuch gegen nVidia einigermassen bestehen zu können ... nötig ist das noch lange nicht, wenn Spiele beiDX10 mal voll an ihre Grenzen stoßen ok dann ... aber jetzt ? absolut unnötig ... selbst Crysis kratzt ja gerade mal nur an der DX10 Oberfläche wie die Quality Patches unter DX9 zeigen ... lass die Gamedesigner erstmal richtig warm werden mit DX10 ... im übrigen hält nicht nur nVidia DX10.1 für jetzt unnötig ...
 
Du meinst bestimmt, dass er die Leistungskrone bis Ende 2008 und nicht 2009 behalten wird. ;-)
 
Also heißt das man soll lieber auf die GPUs 2009 warten da die DX11 unterstützen?
 
Warum nicht gleich auf D3D12 im Jahre 2012 warten?

PS: Bis heute gibts ja noch nicht mal einen Grund für D3D10 .....
 
Wirkliche Neuentwicklungen bei nVidia sind meiner Meinung nach eh nur der Riva 128 (Erster 3D Chip von nVIDIA), GeForce 1 (Einführung von T&L und Shadern) und GeForce 8 (Unified Shader) ... nur bei diesen Kartengenerationen hat sich Massiv etwas verändert.
 
Braucht man bei jeder Generation eine große Veränderung?
Die Einführung der Filteroptimierungen durch den R300 war ja keine Heldentat.

Ich frage mich, was soll dieser Fred? Etwas Gebashe?

 
Zuletzt bearbeitet:
sind nicht alle gamer/consumer karten irgendwie übergangskarten? ^^ entweder man gibt beim launch nen heiden geld aus, oder kauft sich die karten wenn sie preislich in annehmbare regionen gesunken sind. aber dann sind sie schonwieder kurz vorm generationswechsel :) ist halt nen langsam stetig voranschreitender entwicklungsprozess und nv hats ja die letzten 1.5 jahre nicht nötig gehabt richtig neue knaller aufm markt zu bringen mangels konkurenz. wenn die bilanz passt dann stimmt für nvidia alles :) die versuchen halt auch nur mit dem grade mal nötigsten aufwand den meisten gewinn zu machen
 
Da stimme ich Soul_Ripper zu.

Ich werde mir erst mal die Karten ansehen, und dann überlegen ob ich die nehme
 
warum sollte NV jetzt schon auf GDDR5 setzen, wenn GDDR5 jetzt extrem teuer ist und quasi nicht benötigt wird(wenn sich das 512bit-interface bestätigt)?
warum nicht einfach aufs 512bit-interface setzen und erst dann GDDR5 einsetzen, wenn er günstiger ist und auch sinn macht?
 
IgG schrieb:
Wenn ATi weiterhin auf moderne Fertigungsverfahren und Speichertechnologien setzt, können sie die GT200 Leistung in ein paar Monaten einholen.
Wieso in ein paar Monaten? Wenn diese Werte stimmen sollten, würde eine X2 schon ausreichen.

Unyu schrieb:
3. Wozu Dual Die? Warum? Ich sehe das als Vorteil, ein großer Chip ist 1000 mal besser als viele Kleine.
Technisch gesehen mag das in vielen Fällen sogar stimmen, wirtschaftlich hingegen ist aber eher das Gegenteil der Fall.

BartS schrieb:
Also heißt das man soll lieber auf die GPUs 2009 warten da die DX11 unterstützen?
Nein, natürlich nicht. DX11 wird vermutlich nicht vor 2009 spezifiziert. Ich würde nicht vor Q2 2009 schätzen. Bis die API Einzug ins BS hält und Hardware kompatibel ist, kann sicherlich auch noch mal einige Zeit vergehen. Es ist daher fraglich, ob bereits die Nachfolger von R700/GT200 überhaupt schon einen entsprechenden Support haben.
 
Die Prognosen für den GT200 Chip sehen inzwischen nimmer so rosig aus, wie du sie beschreibst ;) Geschätzt wird der Leistungsverlauf inzwischen so und da die HD4870x2 schon im Herbst verfügbar sein soll.....

:D

Und PCGH hat auch noch paar kleine Schmankerl zur 48x0: Link

Lassen wir uns also überraschen wie es Ende des Jahres vollends ausschaut, auf alle Fälle stehen die Prognosen auf Spannung pur :schluck:
 
Zuletzt bearbeitet:
Zurück
Oben