News GeForce GTX 200: PhysX ja, DirectX 10.1 nein

Allso

Da die es in Cuda Umwandeln wird kein weiterer chip oder sonstige sachen benötigt! sie haben ja das komplette Physik programm offen und progen es auf cuda um für die alten spiele die darauf liefen! des weiteren denke ich das die neueren spiele den alten balast der alten Physik karten nicht mehr haben werden und vollständig Physik in Cuda Programmiern!

Gruß
Alex
 
Ach Quatsch *LOL* ati ist ein sikendes schiff wer jetzt ati kauft wid in nen halben jahr mit dem treiber ins gebirge schauen! und AMD ATI ist bald insolvent weill es nicht anders kommen kann wenn kein investor gefunden wird!
Des weiteren ist die NVIDIA Treiber entwicklung ein viel faches schneller und es kommen fast jede woche 2 Treiber im Beta stadium seh ich bei ATI nich so!! naja jeder muss wissen was er macht!
und DX 10 kann alles was DX10.1 auch kann nur das es schneller ist! des weiteren wenn mann mehr Programmier arbeit leistet bekommt mann das auch in DX10 hin was DX10.1 kann!! siehe Crysis auf XP DX9 opt. auf DX10, und VISTA DX 10!!!

Allso ich bleib bei NVIDIA hatte früher 1x ATI gekauft undhatte nur Probleme Radeon 9700 reihe! dann hatt ich noch eine HIS ka iceQ wies nicht mehr was für eine da hat ich Grünen streifen in der mitte auf dem TV Out (100HZ Fernseher) trotz 2x Tauschen Reparatur! dan NV und schon war das bild Perfeckt!

Gruß
Alex
Nie wieder ATI seuftz!
 
Weil, wie bekannt ist, in Dx10.1 eine Berechnung fehlte. Als ob Dx10.1 im Gegensatz zu Dx10 plötzlich um 10% besser laufen würde :rolleyes:
 
Ich schaetze mal, dass solche, zusaetzliche Karten dann ueberfluessig werden?

Außerdem: gibt es einen Grund, warum Nvidia immer noch auf DDR3-Speicher setzt, AMD/ATI aber schon mit DDR5-Speicher arbeiten?

Interessant waere nun noch der Leistungshunger der Karte, wird nicht wenig sein, aber das ist sowieso klar. Reicht noch ein 6-Pin-Stromanschluss oder wird ab der 9er Serie nur noch ein 8-Pin-Stecker als Stromversorgung in Frage kommen?
 
Wenn man keine Ahnung hat... ;)
 
Klar, die Argumente die du anführst finde ich sehr zutreffend ABER ich könnte mir vorstellen, das GDDR5 die Karten nochmal beschleunigen würden...
 
Ich bin ja mal gespannt, wann die 500€ Grenze hier am Markt ankommt. Der Zeit sind die Preise ja so im Keller, da kann man nur hoffen, dass es bei der GTX280 auch so bleiben wird. *hoff*
 
Stimmt die extra PhysX Accelerator Karte wird überflüssig werden. Die GF 8 und 9800 hat auch schon PhysX durch Cuda, es fehlen noch Spiele die das unterstützen.

Der Hauptgrund warum NV keinen Gddr 5 verwendet ist meiner Meinung nach wie so oft Geld. NV verkauft GPU Chips und keinen Vram an dem sie nix verdienen. Gddr 3 ist viel günstiger wie Gddr 5 und somit werden die Karten billiger bzw. der Gewinn steigt für NV wie bei der GT 200.
Durch das 512 SI brauchen sie auch kein Gddr 5, nicht mal bei der GF 8 oder GF9800 hab ich Gddr 4 oder 5 vermisst, das ist schon der richtige Weg, Gddr 3 packt den Job genauso gut und ist günstiger.

Strom wird die Karte ordentlich brauchen, durch das 512er SI könnte sogar die sonst so gute Effizienz der Geforce leiden, es wird ein 6 UND 8 Pol Stecker verbaut und laut Gerüchten könnte die Karte 240W saugen.
 
Zuletzt bearbeitet:
Der G80 ist den G92-Karten nicht aufgrund des größeren SI in höherem Auflösungen überlegen sondern aufgrund des größeren Speichers (wurde schon von vielen Leuten bzw. auch Seiten getestet. Quelle: Dr. Google).
 
Die war schon immer überflüssig...
Diverse Tests zeigen das manche Spiele mit PhysX-Unterstützung zusammen mit aktivierter PhysX-Karte sogar an FPS verlieren.
Naja vielleicht bekommt Nvidia das ganze ja ein bisschen besser hin, aber AEGIA hat das damals völlig verbockt.
 
Du glaubst aber auch jeden sch*** der dir vorgelegt wird oder?
Geh Bild lesen.
 
nope. Das kommt immernoch auf das Spiel an. Verallgemeinern kann man sowas nicht.
Spiele wie Supreme Commander und Race Driver: Grid profitieren eher von einem Quadcore als von einem höher getaktetem Dualcore.
 
Warum passt das nicht?
Hast es dir doch selbst beantwortet.
Rechne doch mal 2*448 = 896 ;)
 
Unnötig würde ich mal nicht sagen zu GDDR5, GDDR4 war ein Lückenfüller aber aufgrund der "schlechteren" Timings zu GDDR3 nicht sonderlich viel schneller, konnte man vernachlässigen, war aber natürlich eine interessante Marktingsache.

GDDR5 soll nun aber den Sprung bringen, Taktung ist natürlich um einiges schneller als GDDR3 und wenn dann die Timings noch stimmen kann das nen heißes Eisen werden bei ATI.
Damit könnte man dann das kleinere 256Bit Speicherinterface ausgleichen ;)
Wobei das 512er damals bei der HD2900 der Reifall schlechthin war :p
 
50% more gaming performance over 1st generation through 240sp.
Der GT200 ist doch ein neuer Chip, und keine 2te Refreshgeneration, also zu welcher Karte hat der nun 50%, zur 9800GX, 9800GTX, 8800GTX oder 8800Ultra?
 
Er meine eine autarke Shaderdomäne, das war immer der Bremsklotz zu NV. Wie ich schon mal geschrieben hatte ist eine GF8 mit Shader-Core 1:1 Taktung um längen langsamer als ne 3870 ;)
 
Der G92 ist jedoch zusätzlich weit höher getaktet. Vergleicht man G92 und G80 bei selben Takt hat eine 9800GTX mit 1024MB keinen wirklichen Vorsprung gegenüber eine 8800GTX/Ultra mit 768 MB... im Gegenteil.
 
Zur bisher schnellste Karte auf dem Papier, also 9800 GX2. ;)

GT200 ist so ein Refresh wie G92, (nur eben ein High-End Refresh zum High-End Preis,) wem tut das jetzt weh?
 
Zurück
Oben