News GeForce GTX 200: PhysX ja, DirectX 10.1 nein

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.277
Am Wochenende sind einmal mehr Spekulationen zu den technischen Daten der neuen GeForce-Familie aufgetaucht. Jene bieten dabei aber wenige Neuigkeiten, die nicht schon einmal irgendwo in letzter Zeit genannt wurde. Fest scheint aber zu stehen, dass Nvidia die PhysX-Unterstützung einführt, DirectX 10.1 aber Fehlanzeige bleibt.

Zur News: GeForce GTX 200: PhysX ja, DirectX 10.1 nein
 
50% mehr Leistung klingt gut aber die ziehen dann wahrscheinlich auch 50% mehr Leistung aus der Steckdose...
Na ja muss ja jeder selber wissen.
 
endlich 512 bit. und die 260 langt vollkommen mit dem VRAM und 448Bit.
Freu mich drauf, auch wenn sie teuer werden. Muss ich halt ein jahr warten
 
Der Dollar Preis wird wohl wieder 1:1 in den Euro preis übernommen. 270€ für solch eine karte wäre mir persönlich schon zu billig.
 
Klar, dass der Preis hoch ist bei so ner Monsterkarte. War ja die Ultra damals auch unkäuflich für einen Ottonormalspieler :D
Aber wer sichs auf Anhieb leisten kann, hat sicherlich eine Menge Spass mit der Karte. Wie schon angeführt, die Speicheranbindung und die Stream Prozessoren sind wirklich gut.

Ob PhysX sinnvoll ist und ob es wirklich etwas bringt ... darauf warte ich nocht :)
 
Also mal wieder abwarten, bis die Preis-Leistungs Empfehlung kommt
Ps.: Ich sehe kein Bild :p
 
Find ich doof!
PhysX mag zwar auf den ersten Blick und direkten Vergleich deutlicher und imposanter sein, DX10.1 kann aber performancetechnisch teilweise ganz schön was bringen. Vor allem ist das auch nicht grade förderlich für die Entwickelung von DX10.1 Spielen, wenn ein Gigant wie Nvidia diese Feature nicht integriert!
 
Ist schon merkwürdig das DX 10.1 Unterstützung wegbleiben könnte. Ich finde die Speicherbandbreite der GTX 260 ein bisschen krum, so wie den V-Ram. Naja näheres erfahren wir ja an meinem Geburtstag^^
 
Bin mal gespannt, wie sich diese Runde im Grafikkarten-Duell AMD/ATI gegen nVidia entscheidet. Brachiale Leistung seitens nVidia (zumindest angekündigt ;) ) oder Dumpingpreise seitens ATI. 270 $ im Gegensatz zu über 500 $ ist schon ein Unterschied...
 
512Bit auf 1024mb und PhysX hört sich ja schonmal gut an :)

Nur schade das 10.1 Fehlt !
 
Muss nicht sein! Wenn das die neue Generation ist dann muss da auch was am Strom gemacht werden!
 
Naja würde sicher was bringen, wenn die treiber richtig programmiert werden nur dann kann man auch die performence nützen.

Was bei Nvidia nicht so der Fall ist :D
 
Schon mal die GTX 260 sieht super aus.
192 Stream Prozessoren!!! Wenn die so schnell wie beim G92/G80 sind, wird ne hammer Karte.

Und in Zukunft könnte die PhysX Beschleunigung recht was bringen.
Wird jedoch dank den Tripple und Quad Cores unnötig sein.
 
Quelle?

Diese Spekulationen hätte ich mir auch selber aus den Fingern saugen können. Das 512bit Gerücht kursiert schon lange, die abgespeckte Version a la 8800gts (g80) mit kleinerem Speicher und Speicherinterface gabs auch schon mal, die Verdoppelung der Streamprozessoren ist naheliegend, genauso wie CUDA, das ja schon vor längerer Zeit angekündigt wurde.

Da sitzt also klein-Fritz in seinem Keller, zählt 1 und 1 zusammen und hofft auf öffentliche Aufmerksamkeit.
Und die bekommt er auch noch von CB -.-
 
Physix unterstützen sowieso nur ganz wenige Games. Dx 10.1 Unterstütz bis jetzt glaube ich nur Assassin's Creed
 
Hach ja.. was war es doch noch vor Kurzem so böse und unnötig.. das Liebe DX 10 und auf einmal meckern alle, dass da 10.1 nicht unterstützt werden könnte. Ich denke ihr Zocker nutzt eh alle XP, das passt irgendwie nicht zusammen ;-)

Cuda ist weit aus interessanter, als die Unterstützung eines Standards, der noch lange nicht etabliert ist bei den Entwicklern.
 
Nvidia hat statt DX10.1 das "The Way It's Meant To Be Played"-Logo. Und wo das drauf ist wird es sowieso kein DX10.1 geben ;)
 
Nvidia erwartet eine bis zu 50-prozentige Steigerung gegenüber der bisherigen Performance.

Ja welcher? 88GTX oder 98GTX oder 98GX2?

Das einzige, worauf ich jetzt wirklich gespannt bin, ist der Stromverbrauch...
 
Zurück
Oben