News GeForce GTX 200: PhysX ja, DirectX 10.1 nein

Man darf gespannt sein. Ohne Nvidia wird sich DX10.1 nie durchsetzen. Laut MS soll es auch nicht das neue DirectX 9c werden.

Wenn die 4870 25 % schneller als eine 9800 GTX ist (wow, ATI hat endlich das 8800 GTX Niveau erreicht) braucht der GT200/GTX280 ordentlich Power um gegen die X2 glänzen zu können. Und da SingleChip>CF/SLI ist, gefällt mir Nvidias Lösung besser.
 
Naja ich sag Spekulationen über Spekulationen.

Denke auch nicht das der Ati chip schneller sein wird.

Aber Endgültige Ergebnisse und Vergleiche werden wir erst aufstellen können wenn alle Karten bzw. die Topmodelle erhältlich sind :D

Deswegen das gute alte Sprichwort -> abwarten & den Tee genießen =)

@Vorposter: Bis jetzt noch nicht Viele ( Wenn nicht sogar nur 1 ? - Asassins Creed) Und selbst da wird es weggepatcht.

Aber wenn man mit Dx10.1 mehr Bilder Pro Sekunde erreichen kann warum dann jetzt nicht schon in die Chips implementieren?

Zukünftige Spiele werden sicherlich Dx10.1 supporten...
 
Hört sich nach einer mächtigen Karte an, die jedoch auch seinen Preis hat. Für mich wird das wohl kaum was werden, doch es ist schön zu sehen, dass es endlich mal wieder einen grossen Schritt vorwärts geht.
 
die neue Nvidia Generation wird die 512 Bit brauchen, aufgrund von langsamen und dafür günstigen GDDR3 und der entsprechenden Shaderleistung. 256Bit wären bei 240 Shader der Flaschenhals, wie damals die Shaderleistung bei der HD2900XT der Flaschenhals war.
AMD geht mit GDDR5 eben einen anderen Weg, was noch ganz in Ordnung sien mag. Wenn NVIDA aber nun gute Erfahrungen mit 512Bit sammelt und gut umsetzt haben sie den Vorteil schnell auf GDDR4 oder GDDR5 umzusatteln um die Speicherperformance nach oben zu treiben. Mal eben von 256Bit auf 512Bit umstellen wird schwerer sein...
 
angesichts der Shaderzahl schon locker 30% schneller als eine G92 / G80, die Frage ist wie hoch man eine solche Shadermasse takten kann...
 
ne die Speichercontroller setzen sich irgendwiee aus Clustern zu 64 Bit zusammen. Bei der kleineren Version fehlt einer dieser Controllercluster und somit dezimiert sich auch der Speicherausbau. Bei einem solchen Chipmonster macht es Sinn "defekte" Karten als leicht abgespeckte Version zu vermarkten. Ist schließlich nichts neues.
 
Zuletzt bearbeitet:
das ist nichts neues... früher wurde meist der Takt und die Anzahl der Shader vergrößert, sowie natürlich der Speicherausbau. Richtige Architekturveränderungen gab es zuletzt mit Unified Shadern. Ob Dx11 wieder andere Shader vorraussetzt weiß ich nicht. Bis eine Umstellung nötig wird werden wohl auch weiterhin Shader + SI + Speicher + Takt erhöht bei schrumpfender Fertigungsgröße. Die Umstellung auf 10.1 erfordert keine andere Shaderarchitektur. Was fehlt ist meines Wissens zum Beispiel die Trellisationseinheit oÄ die AMD schon auf der 2900XT integriert hatte.
 
die AMD X2 Lösung sagt mir auch nicht zu solange eine 2 Chip Lösung einer Singelchip Lösung nicht gleichwertig ist, zum Beispiel den Ram nicht doppelt braucht und keine Microruckler vorhanden sind.

Grüchte gingen mal von einer aufstockung von 64 5D Shadern auf 160 5D Shader aus, was mir weit besser gefallen hätte. Dann hätten auch die 512 Bit SI der 2900XT von damals Sinn gemacht. Eine DualGPU Lösung scheint aber wohl günstiger zu sein.
 
die Shaderzahl ist schon länger bekannt, das SI konnte man vorahnen da 256Bit und 240 Shader Flaschenhals bedeuten würde. Schließlich ist nicht umsonst eine alte G80 dank großem SI in hohen Auflösungen nach wie vor vielen neuen G92 Karten überlegen.

10.1 fehlt natürlich. Nvidia wollte wohl keine zusätzlichen Kosten in Kauf nehmen. Generell versucht Nvidia mit möglicht geringen Kosten viel herauszuholen. Stiftet Namenswirrwar, stuft beim G92 auf 256Bit zurück um günstiger zu produzieren. Hybrid Power ist wohl auch lukrativer da die Stromsparfunktionen der eigentlichen Grafikkarte somit fast ignoriert werden können, auch bei zukünftigen Generationen. Die Entwicklung des passenden Chipsatzes mag (einmalig + Erweiterung) viel Geld kosten, auf lange Sicht fährt Nvida damit aber wohl gut. Und bei 10.1 nichts anderes. Unter Strich wird Nvida hier günstiger fahren da viele Spielehersteller auf 10.1 verzichten werden. Unterschiede zu 10.0 sind wohl eher margial, nicht vergleichbar mit DX9.c. Und mit billigem GDDR3 lassen sich auch einige € sparen.

Alles in Allem wissen die Leute bei Nvidia schon wie man Geld reinholt, was natürlich nicht immer positiv für den Kunden sein muss. Sicher ist das es sich bei der 280er um eine neue Monsterkarte handelt, die locker 50% auf alles dagewesene, eventuell GX2 ausgeschlossen, draufsetzen wird.
Fehlen noch die Taktraten. Ich vermute die 50 statt 80 - 100% kommen durch niedriegeren Takt zu Stande. Wird schwer bei selber Fertigungsgröße einen doppeltsogroßen Chip ähnlich hoch zu taten.
 
Wofür oder für welches Spiel braucht man so ne GraKa? hhh..Hee? Für 3dM06 doch bloß, ich hab ne 8800gtx (könnte auch noch ocen, nur wozu?) und entsprechenden Rest, selbst Crüsis läuft in etwas niedriger Auflösung auf nem 22"Wide wie ein Kullerkeks.
Meine nächste GraKa hat DirectX 11 und läuft unter win7.
Wenn mir jetzt jemand heimlich diese neue GraKa einbauen würde - ich würds nicht checken *grins*.
 
Zuletzt bearbeitet:
die Frage ist ob man rein dadurch mehr FPS erreichen kann oder nicht. Die Transitoren für 10.1 an anderen Stellen richtig angelegt machen den wohl geringen bis nicht vorhandenen Performance Vorteil wieder weg.

=> Spekulationen... Shaderzahl und SI kann man als sicher erachten. Lediglich die Taktwerte fehlen, sind diese bekannt kann man die Performance sehr gut abschätzen.
 
Ich hab ja beide Interpretationsmöglichkeiten aufgezeigt ... die eine finde ich irgendwie zu dürftig und die andere halte ich ebenfalls für überzogen. Der Satz ist leider nicht so eindeutig.

Falls das Angaben vom Marketing sind, werden die meist sogar höher angesetzt als es in Wirklichkeit ist. Also kann man dann von höchtens ~40% ausgehen und das wiederum wäre für diese Spezifikation eindeutig viel zu wenig.

Vielleicht sind diese Teile aber auch nur sehr sehr konservativ getaktet da dies noch die 65nm Chips sind und trotz scheinbarer Verfügbarkeit von GDDR5 "nur" mit GDDR3 betrieben werden. NVIDIA könnte sich aber auch für November einen GT200 mit 55nm und GDDR5 als "Ultra" vorbehalten.

Ich finde die Sache jedenfallls äusserts spannend und bin bei dem SI extrem neugierig was die Karte bei 2560x1600 16AF 16AA + TSS rausholen kann.
 
leider zuteuer :( da hole ich mir lieber eine Ati 4870 .
 
Hm, Ati erhöht den Takt (Shadertakt?) drastisch und verdoppelt die TMU´s, merzt also die große Schwachstelle der 2900XT und der 38X0er, mangelnde Füllrate, aus.
NV verbaut einfach nahezu die doppelte Menge an Shaderunits, bei bisher unbekanntem Takt, ballert ein 512 Bit Monster SI hin, welches das PCB wohl auch nicht billiger macht, lässt DX10.1 leider links liegen und verwendet dafür einen Teil der GPU-Leistung für die Physx-Engine. Außerdem gibt es statt Powerplay nur das bescheuerte Hybrid-SLI.

Ich muss gestehen, dass ich ATI´s Lösung da ein wenig eleganter finde, macht von den Daten her einfach den Eindruck eines sauberen P/L-Knallers, während die neuen GF´s eher die reine Enthusiastenschiene fahren.

BTW: Wieso gibt es bei AC unter DX10.1 eher optische Verbesserungen, wenn da wichtige Berechnungen weggelassen werden? Nein, hat ganz bestimmt nichts damit zu tun, dass es ein TWIMTBP-Titel ist und somit von NV gesponsert, dass DX10.1 weggepatcht wird.
 
Du hast dir Frage selbst beantwortet. Nicht jeder ist, wie du, bereit Kompromisse bei der Auflösung und Qualität in Kauf zu nehmen. Leute mit 30" TFT (Ich z.B) wollen Crysis einfach nicht bei 1280 auf "High" spielen, sondern auf 2560 mit "Very High" und selbst dafür düfte eine einzelne GTX 280 zu schwach sein ;-)
 
Lustig! immer noch kein 10.1, aber ich fände es sehr schade, wenn das stimmen sollte. Ich war bis jetzt immer mit Nvidia zufrieden, aber wenn das Stimmen sollte werde ich wahrscheinlich auf ATI umsteigen!
 
Zurück
Oben