News GeForce GTX 200: PhysX ja, DirectX 10.1 nein

Weil sie von NV druck bekommen haben, weil NV es nicht auf die Beine bringt, DX10.1, welches wohl einen guten Performance-Schub bringt (gegebüber dx10), zu unterstützen.
Wenn dass wahr ist, ist dass noch ein Grund, zu der neuen Radeon 4000-Serie zu greifen.
 
1. nvidia hat das größere speicherinterface und sie fertigen in einer größeren fertigungsgröße daher sind die kosten für nvidia größer als für amd (höchst warscheinlich)

2. Auf Hybrid power als ersatz für einen stromsparmodus zu setzen ist arm, wieviel % haben überhaupt ein nvidia-board + wieviel davon eines das dieses feature utnerstützt, atis powerplay geht mit jedem board.
 
Lasst mal nicht unter den Tisch fallen, daß Assassin's creed mit dx 10.1 einen renderprozess ausgelassen hat, oder wie war das noch... ?
 
Erklär mir bitte, wie man so aus Versehen einen kompletten Renderdurchgang "vergessen" kann und dann keine Instabilitäten, Grafikfehler oder schlechtere Grafikqualität als Ergebnis bekommt.

Für mich klingt das sehr stark nach Ausrede.
 
PhysX kostet keine Lizenzgebühren, gerade weil Ageia wollte, dass Spielefirmen das implementieren.
 
wenn die zu weihnachten billiger werden her damit^^
schließlich brauch ich dazu noch nen wakühler uind die sind ja nicht
billig^^
 
Naja, aber ich glaub dann hätte er das "persönlich" rausgelassen, weil 270 Euro wären für eine super-highend-karte echt zu wenig, nicht nur für ihn persönlich...
 
Natürlich ist DX 10.1 nur ein "kleines" Update.
Als die ersten DX 10 Karten rauskamen gab es auch noch sogut wie kein Spiel das DX 10 unterstüzt hat!
Was noch nicht ist kann ja noch werden..
 
Die ersten Modelle lohnen sich eh für 8800 xxx Besitzer nicht wirklich, ausser für Penismurks vielleicht. Mitte 2009 denke ich werden dann die High End Modelle der neuen Generation erschwinglich sein und dann sollte man zuschlagen, ist halt jedesmal das selbe.
 
Ob jetzt der Bus breiter wird(Nvidia) oder der Takt hochgeht(ATI mit GDDR5) ist doch egal... am Ende zählen nur der Speicherdurchsatz in GB/s.

Mal schauen ob die Nvidia Karten dieses Mal bessere Performance liefern wenn der Videospeicher knapp wird... bisher steht ATI dann besser da(siehe Benchmarks der 256mb Karten).

Ist bei 800+MB Ram kaum relevant, aber später kommt bestimmt noch eine RAM-abgespeckte Mainstream-Karte raus, die Preis-Leistungsmässig interessanter als die 2 Boliden sein dürfte... bis dahin gibts da hoffentlich keine Probleme mehr.
 
Wobei Takt hochdrehen durch besseren RAM wohl etwas günstiger ist als nen grösseren Bus einzubauen! Und platzsparender...
 
ja sie fertigen "größer". Tut natürlich nicht dem Verbrauch und auch nicht den Produktionskosten gut. Allerdings heißt ein größerer Prozess nicht = höhere Kosten. Die Entwicklung kostet schließlich auch und Fremdfertigung wie bei AMD ist für Nvidia momentan wohl nicht erstrebenswert da die jetztige Art völlig ausreicht.
AMD darf bei den Preisen zu denen die GPU verkauft werden auch nicht hoch ansetzen. Bei 150 Euro ist nicht allzuviel Luft. Da darf eine GTX 2XX ruhig etwas teuerer in der Produktion sein, verhältnismäßig wird sie pro Karte mehr Gewinn abschlagen.
Ich hoffe AMD schießt mit dem Versuch nur auf Low und Midrange zu setzen nicht ins eigene Bein. So berauschend sind die Gewinne durch den HD3XXX Verkauf nun auch wieder nicht.

Natürlich ist es "arm" auf Hybrod Power als Stromsparwunder zu setzen, jedoch die wohl wirtschaftlichste. Treibt den Verkauf von eben den passenden Mainboards an und eventuell können die Lizenzen hierfür später teuer verkauft werden. Ganz zu schweigen von den Kosten an der GPU die man sich hierdurch spart. Vorallem auf längere Sicht gesehen.

Für den Endverbraucher wäre natürlich eine allround Lösung wie direkte Stromsparfunktionen (ala CPU) besser, unabhängig von der Hauptplatine. Was aber juckt unser Wohl Nvidia wenn sie anders mehr Geld machen können ;)
Geiz is und bleibt geil...
 
Irgendjemand sagte einmal, ATi habe meistens bei der neuen Technologie die Nase vorn, nVidia nutze sie aber besser aus. Die einzigen Ausnahmen waren Shader 3.0 und DX 10.
Ja, und hier sehen wir es wieder: die dritte GF-Generation, die DX 10.1 hätte haben können, es aber nicht hat.
In der grakikkartengestützten Physikberechnung sehe ich wenig Sinn. Welcher Anschluss kann auf einmal Grafik- und Physikdaten liefern und auch noch für Strom sorgen?
 
Ja es ist doch so! Warum habt ihr den Beitrag rausgevotet? Das ist nicht mehr feierlich, was Grafikkarten und CPUs da an Strom aus dem Netz ziehen :freak:
 
Habe mal die angeblichen Speicherbandbreiten zusammengestellt zum Vegleich die 9800gtx, wobei ich sagen muss das das PL :evillolVerhältinis bei der 4870 sehr gut ist.
9800gtx 70.4
hd 4850 73.2
gtx 260 123.2
hd 4870 123.8
gtx 280 140.8
 
Zurück
Oben