News GeForce GTX 200: PhysX ja, DirectX 10.1 nein

Kein DX10.1?
NVIDIA hängt nicht an den neuen Technologien, schade...
Bin mal gespannt wie sich das 512Bit Speicherinterface bei NVIDIA macht, bei ATI wars ja mit der HD2900 nen reinfall.
 
Denk mal dran, das größere Monitore immer billiger werden-->da braucht die Graka natürlich entsprechende Leistung, wenn man alles auf max stellt und noch Kantenglättung haben möchte bei 1920x1200 und die minimum frames sollten dann schon bei 60 liegen :)

Aber hast schon recht, die grafische Fahnenstange ist mit Crysis erstmal ne Weile erreicht, da bremsen die Konsolen schon wieder zu sehr, bzw. die aktuelle Grafik reicht den meisten und die wollen dann einfach nix mehr investieren, weils eh schon gut genug aussieht. Aber wo kommen wir denn da hin? Fotorealismus will ich haben ;)
 
50% schneller bei fast 100% mehr Stream Processors.

Da wird Takt vorerst etwas nieder sein a la breite CPU und niederer Takt.
Aber ein Refresh in 45nm könnte noch stärker als die Konkurrenz werden, da der HD 4870 in Kürze schon einen recht hohen Takt haben wird.

Außer Anfang 2009 kommen schon die DX11-GPUs.

Auf alle fälle bin ich gespannt, welches Konzept das bessere ist.

a la 9800GTX (alte Generation) vs. HD 4870 (neue Gen)
and GTX 280 vs. R700.

So wie es aussieht, macht es AMD mit dem HD 4870 recht geschickt, indem sie versuchen im Performance-Bereich statt im High-End-Bereich der Bessere zu sein
Quasi, die Sichere Variante. Vorallem, weil sie AFAIK (momentan) nicht so viel R&D investieren können wie Nvidia.
Denn wenn ATIs High-End-Chip wieder nicht die Nvidia-High-End-Chip schlagen könnte, dann hätte ATI wieder ein Durst-Strecke vor sich gehabt, wie damals mit der R600.

So sind sie (so wie es aussieht) in Performance-Bereich besser, die dann gut verkauft werden können.
Und per R700 können sie noch irgendwie eine Konkurrenz anbieten.

Ich gehe davon aus, dass die R700 nicht so eine gute Parole bieten kann, aber per CrossfireX 8.? (Dual-CPU-on-Card, Crossfire, ...) kann Nvidia in Zukunft ATI nicht mehr so einfach & dominant abhängen.
 
Es gibt immer welche, derzeit leider zu viele, die den Fortschritt aufhalten. Auch wenn ich eingestehen muss das Microsoft hier die Hauptschuld trägt mit der Kopplung von DX10 an Vista. Ich hoffe Inständig das wir sehr bald von DX9 weg zu DX10 kommen und zwar alle. DX10 bietet vieles das DX9 nicht bieten kann, vor allem bessere Qualität bei gleicher Performance und noch ein paar nette andere Dinge.
Leider kann dies nicht genutzt werden da ja jedes Spiel noch auf DX9 programmiert werden muss, damit es auch ja jeder nutzen kann, und DX10 wird rudimentär drauf geklatscht, was die Performance stark in den Keller zieht. DX10.1 bringt einen weiteren Leistungsschub durch einfachere Shaderprogrammierung, was man ja auch bei Assassins Creed gut sehen kann. Zumal auch hier AA unter DX10.1 deutlich besser aussieht als mit DX10.

Ich hoffe auf ein schnelles Ende von DX9, das Microsoft leider versaut hat durch ihre seltsame Politik.
 
Nur gut, dass die Streamprozessoren von AMD nicht mit denen von NV vergleichbar sind ;)

Viel spaß mit dem ineffizienten Quad CF und microrucklern;)
 
ja, es war ein Reinfall, da der R600 den Flaschenhalt darstellte. Das dürfte aber jetzt etwas anders sein.
 
500 Dollar? Hartes Brot.

Aber wer sich solche Karten gleich zum oder kurz nach Release kauft, ist selbst schuld.
(halbes) Jahr warten = Hälfte zahlen ;)

Erfreulich aber, dass der Konkurrenzkampf weitergeht!
 
50% mehr leistung aber knapp 600 euro dafür ausgeben?ne danke dafür kriegt man 3 8800gtx,und neue technik aller dx10.1 ist auch nicht dabei.dann lieber 2 4870xt karten die schneller ,dx10.1 haben und billiger sind .
 
Zuletzt bearbeitet:
Wenn jetzt der RV770 wirklich sehr gut wird, dann könnte man vom Preiskampf profitieren. Nur wenn dieser 25% schneller als die 9800GTX ist aber der GT200 50% schneller ist, wird ATI wohl leider nicht ganz oben im High End Bereich mitmischen können sowie NVidia. Auch das 256Bit Interface sollte die Leistung ein wenig schmälern... wird sich von der Kräfteverteilung also anscheinend nicht viel ändern. Aber zum GT200 selbst: die Daten sind ja mal super, 512Bit und 240 Steam Prozessoren bei der GTX 280. Und für Preisbewuste eben "nur" die GTX 260 mit 448Bit und 192 Steam Prozessoren, was trotzdem mehr als genug ist. Doch 500 Euro für die 280er, das heißt dann bestimmt 350-400 Euro für die 260er, doch schon nicht ohne. (ich gehe davon aus, dass der Preis Dollar-Euro wieder 1:1 übernommen wird)
 
wenn sich bewahrheitet, dass es wieder "nur" ein DX10 ohne die ".1"-Erweiterung ist, ist das ein völliger Schuss in den Ofen seitens nVidia und zugleich eine Bankrott Erklärung der dortigen Entwickler

aber ich glaube weniger, dass DX10.1 bei dem neuen Chip fehlen wird - wenn "doch", dann gute Nacht nVidia!
 
Interessante Neuigkeit!
Was mich aber irgentwie wundert ist das 448bit Speicherinterface und der 896MB Grafikspeicher. Wie kommen diese krumen zahlen Zusatnde? Wieso wird das normalerweise nicht verwendet? Normal wird das doch irgentwie mit 2^x ausgerechnet. 448 passt da irgentwie nicht...
Hat jemand Ahnung?
 
Das sind mal Neuigkeiten!
PhysX ready ein schönes Extra, doch wieviele Spiele unterstützen / nutzen PhysX?
Ich meine , es ist nicht mal ein kleiner Bruchteil!
Ohne die DX 10.1 Unterstützung schießt sich Nvidia selbst ins Knie.
Ein fataler Fehler..
Mein Vorschlag für die nächste Generation: Zurück zu DX 9 ?!?
 
also für mich sieht das einfach nur so aus, als ob man die die G80 (G92) Architektur grob hergenommen hat und alles "vermehrt". Sprich: Statt 128 Shader sind es jetzt 240, auch wenn es jetzt laut dieser Tabelle V2 ist, glaube ich das nicht gerne (bzw. nur leichte Veränderungen). Dazu noch ein größeres Speicher Interface und fertig. Mehr Neuerungen stehen ja nicht in dieser Tabelle.

Meine Theorie deckt auch die >1Mrd Transistoren (der G92 hat ja ~780Mio?)
Dazu auch die Chipgröße von etwa 575mm² (habe leider keine Quelle dazu, da gabs irgendwo auch mal ein Gerücht dazu)
 
Rückschritt statt Vorschritt... Da kann man nur auf mehr DirectX 10.1 Spiele hoffen und marketingwirksame Maßnahmen im gleichen Atemzug!
Naja schlau sind sie ja, die Kalifornier. Bieten Ihre Hi-End 500$+ Karten an, für die man bald ein extra NT benötigt und haben dann die Krone. Das wird von Unwissenden auf die kleineren Varianten umgemünzt und so gräbt man ATi im Mid-Range das Wasser ab.
Ich hoffe doch, dass ATi mit der X2 etwas dagegenhalten kann, auch wenn ich von Multi-GPU Lösungen an sich nichts halte, aber ich mag 'David' nun mal :o
 
So nen Quatsch. DX10.1 bringt 0 mehr Leistung...bei Assasins Creed war im DX10.1 ein Fehler wo eine Berechnung gefehlt hat und dadurch gab es halt mehr FPS ... das war nur ein Fehler und hat nichts damit zu tun das DX10.1 schneller ist.
 
Zurück
Oben