Nvidia: DirectX10.1 macht kaum einen Unterschied

DirectX 10.1: Verbesserung oder Marketing-Gag?

  • Auf jeden Fall eine Verbesserung!

    Stimmen: 27 15,7%
  • Kann nicht schaden..

    Stimmen: 78 45,3%
  • Wozu? DirectX 9.0c reicht vollkommen aus!

    Stimmen: 53 30,8%
  • Marketing-Gag

    Stimmen: 14 8,1%

  • Umfrageteilnehmer
    172
sind halt alles, wie immer, nur gerüchte, wie so oft im web :(
 
D3D10 : ~ 4 Jahre Entwicklungszeit
D3D10.1 : ~ 1 Jahr Entwicklungszeit

(von D3D9 bzw. D3D10 aus betrachtet)

Da ist wohl klar, dass D3D10 gegenueber D3D9 wesentlich mehr Veraenderungen mitbringt als D3D10.1 ggue. D3D10.
 
Außerdem gab es von DirextX ja auch verschiedene Stufen, 9.0, 9.0a - 9.0c. Eine schöne übersicht gibt es hier.

Theoretisch beträgt die Entwicklungszeit von DirextX 10.1 knapp 14 Monate. DX10.0 kam mit Vista raus, also am 30.11.2006. DX10.1 wird mit dem SP1 für Vista eingeführt (auch wenn es in der Beta schon mit drin ist).

PS: Die große Resonanz auf die Umfrage finde ich überraschend und gut!
 
Bei DX 10.1 sind die Dinge drin, die bis zum Vista Release nicht verwirklich werden konnten.
Schaden tuts auf keinen Fall jetzt schon eine DX 10.1 fähige Grafikkarte zu haben.
Man weiss nicht, wie schnell das wirklich genutzt wird.
Mal sehen, wie gut die ATI DX 10.1 Karten nun wirklich sind und wie sie sich vom Preis her schlagen gegen die 8800 GT.
Ist aber klar, dass Nvidia sagt, dass dies nicht gebraucht wird, zumindest solange Nvidia da nix zu bieten hat. Und ATI wird betonen,wie zukunftssicher Ihre Karten damit sind und damit haben sie ja auch nicht unrecht.
 
Hmmm sieht doch ganz so aus als wäre DX10.0 mit DX9.0b und DX10.1 mit DX9.0c zu vergleichen, was die zusätzliche Entwicklungszeit angeht. Ausserdem kommen beide Updates im Rahmen eines ServicePacks. Und von 9.0b auf 9.0c wurde doch auch was mit den Shadern oder so gemacht, oder *mutmaß*?
 
Damals kam Shader 3.0 hinzu, wenn ich mich recht erinnere, oder?
 
Ja, aber auch Karten mit SM 2.0 werden von DX 9.0c unterstützt!
Also ich kann mir vorstellen, dass bei DX 10.1 einfach die Leistung der GraKa besser rübergebracht wurde.
Also DX 10 verbraucht schon viel mehr als DX 9, natürlich viel bessere Grafik, aber im Verhältnis, ein bisschen zu viel Leistungsverbrauch und zu wenig Grafikunterschiede dafür!
DX 10.1 soll das einfach besser unterstützen, heute kann man DX 10 noch vergessen eigtl., da die Karten viel zu schwach sind um das darzustellen!

Naja also das ist eigtl. nicht mit dem Sprung von b auf c zu vergleichen, da man komplett neue Hardware braucht, die war bei dem anderen Sprung nicht nötig!
 
@ BessenOlli

1. War der Monitor net billig und zweitens ist er einer der besten 19zoll-Monitore zur Zeit. Und 19zoll reichen mir auch vollkommen aus, was größeres brauch ich nich.
2. DX9 reicht mir solange, wie es mir reicht :D , kann man nie sicher sagen

@ H3rby

1. Danke, dass de meinen Punkt auch mit in die Umfrage mit einbezogen hast. ;)
2. Ich schrieb doch bereits, dass das wahrscheinlich alles nur Gerüchte sind ;)
3. Ich nehme das mit Vista zurück. Klar, ich finde auch, dass es geil aussieht (habe ich auch nie bestritten), es ist nur schade, dass die Hardwareanforderung so hoch ist und das mit den Treibern nicht so läuft. Vielleicht suche ich hier auch die Schuld bei Microsoft, anstatt bei den anderen Herstellern zu suchen, die das mit den Treibern nicht richtig hinbekommen. Sorry nochmals.
4. Aber soll Vista nicht Stabilitätsprobleme oder sowas haben? Aber naja, hat ja jedes große Programm anfangs. Ich denk mal, nach dem Service Pack wird sich das dann ändern.

MfG paxtn
 
H3rby schrieb:
Damals kam Shader 3.0 hinzu, wenn ich mich recht erinnere, oder?

Für Hardware Unterstützung von SM3.0 braucht es die DX9.0c runtime, das ist richtig. Spezifiziert war SM3.0 aber von Beginn an (DX9.0), es war nur die HW-Unterstützung in der runtime abgeschaltet, weil man es mangels Hardware nicht testen konnte, es lief also alles auf dem Reference rasterizer in Software.
 
Patar schrieb:
also für mich sieht dass nach einer pr kampagne gegen ati aus.
Die versuchen schon im voraus den vorteil der kommenden ati karten schlecht zu machen, womit ati wohl in den nächsten wochen werben wird

deine glaskugel heute schon geputzt? und welchen vorteil erkannt? klär mich mal auf, danke :lol:
 
baFh schrieb:
deine glaskugel heute schon geputzt? und welchen vorteil erkannt? klär mich mal auf, danke :lol:

Naja, sonst hat Nvidia immer lauthals mit der neueren Technologie geworben (auch wenn sie ab und zu vollkommen sinnlos war.. Ich denk da an 32-bit), siehe nicht zuletzt bei DX10.. Und nun bringt plötzlich eine anderer etwas neueres raus als sie selbst.. Oha. Die sind sicher in ihrem Stolz mehr als verletzt.

Bin auf Benchmarkes gespannt im Vergleich von DX10 zu DX10.1.


paxtn schrieb:
1. Danke, dass de meinen Punkt auch mit in die Umfrage mit einbezogen hast.
Du meinst das mit dem Marketing-Gag?

H3rby schrieb:
PS: Mmh, der hat bei der Umfrage doch glatt den ersten Punkt "Marketing-Gag" vergessen. Kann ich (oder ein Admin) das noch ändern?

Habe schon einen Admin deswegen angeschrieben, aber leider noch keine Reaktion. Glaube es aber auch eher weniger, von ATI sicher schon mal gar nicht, die machen bis jetzt ja mal Null Werbung für ihre neuen Karten.. ^^
 
Zuletzt bearbeitet:
xp_home schrieb:
D.h. Spiele mit DX10.1 kommen frühestens im Herbst 2008 und werden abwärts kompatibel sein.

Für mich heißt das, dass es keinen Grund gibt vor dem Jahr 2008 eine Grafikkarte mit DX10.1 Support zu kaufen.

---
Ich bin auch mal gespannt, wann es Spiele mit OpenGL 2.1 geben wird, dass die aktuellen Karten von nVidia unterstützen.

Sehe ich auch so. Für mich war die DX-Fähigkeit bis jetzt nie ein Kaufgrund. So habe auch eine X850XT einer 6800er Karte vorgezogen.

mFg tAk
 
H3rby schrieb:
Naja, sonst hat Nvidia immer lauthals mit der neueren Technologie geworben (auch wenn sie ab und zu vollkommen sinnlos war.. Ich denk da an 32-bit),

Wieso denkst du da ausgerechnet an das äusserst sinnvolle 32 Bit? Oder möchtest du lieber in 16 Bit mit Colorbanding spielen?
 
@ H3rby

Zitat von paxtn
1. Danke, dass de meinen Punkt auch mit in die Umfrage mit einbezogen hast.

Du meinst das mit dem Marketing-Gag?

Nein. Du hast in deine Umfrage folgendes einbezogen: "Wozu? DirectX 9.0c reicht vollkommen aus!" - genauso wie ich es vorgeschlagen hatte:

Bei der Umfrage sollte dann aber auch als Auswählpunkt rein: "DX9.0c reicht aus".
(#15)

Das meinte ich. Danke dafür. *hehe*

Schönen Abend noch, MfG paxtn
 
kisser schrieb:
Wieso denkst du da ausgerechnet an das äusserst sinnvolle 32 Bit? Oder möchtest du lieber in 16 Bit mit Colorbanding spielen?
Weil das, als Nvidia die Karten dafür rausgebracht hat, genau NULL Sinn gemacht hat. Sogar ganz im Gegenteil.



PS: Hier gibt es ein Benchmark zwischen der HD3870 und einer 8800GT.

http://www.pcgameshardware.de/?article_id=620901


Allerdings würde mich mal der verwendete Treiber für die AMD Karte interessieren. Noch ein alter oder schon ein Beta des 7.11?

Mal schauen, was die Verfügbarkeit sagt. Wenn es, im Gegensatz zur 8800GT, genügend gibt, dann werden wohl sehr viele HD38x0 verkauft werden, einfach weil es sie gibt.


Die 8800GTX / Ultras von Nvidia sind aber echt nur noch ein Witz, meiner Meinung nach. Für deren Preise bekäme man 2 8800GTs oder 2 HD38x0 und hätte ca. 75% mehr Leistung. Gab es schonmal eine derart absurde Konstellation?
 
Na-ja, die HD2900 XT ist zur Zeit auch überteuert. Mit der Vorstellung der GeForce 8800 GT sind die Preise der GeForce 8800 GTS 640 auch unter die 300 Euromarke gefallen. Die HD 2900 XT ist immer noch so teuer wie bisher, also ihr Geld noch weniger wert als bis dahin.

Die GeForce 8800 GTX wird sicher auch bei der Vorstellung der GeForce 8800 GTS 512MB billiger oder wird ganz auslaufen.
 
Also wer da nicht fit bleibt, verliert mal schnell den Überblick. Ich finde, nVidia hätte ruhig eine 8900er Reihe noch machen können, bevor jetzt diese neuen komischen Namensgebungen kommen. *hehe*

MfG

EDIT:

Frage: 1GB Speicher braucht man doch erst ab ganz großen Bildschirmauflösungen oder? So und ich habe mal irgendwo gelesen, dass dann der GPU ein bisschen langsamer irgendwie rechnet oder so. Aber ich glaube nicht, dass das der Fall ist, oder?
 
Zuletzt bearbeitet:
kisser schrieb:
Da hast du Unsinn gehoert.
Der Sprung von D3D9 auf D3D10 ist gewaltig, D3D10.1 ist nur ein kleineres Update.

Technisch gesehen hast du recht. SM4.1 ist nur ein Update. Aber ein nicht unwichtiges - es garantiert endlich AA unter DX10 in jeder Situation und zwar ohne Grafikfehler. So gesehen ist der Sprung in der BQ natürlich enorm. Alles eine Sache des Standpunktes.
 
paxtn schrieb:
Also wer da nicht fit bleibt, verliert mal schnell den Überblick. Ich finde, nVidia hätte ruhig eine 8900er Reihe noch machen können, bevor jetzt diese neuen komischen Namensgebungen kommen. *hehe*

Dann wäre aber ein wichtiger Grund entfallen, die 8800GTS / GTX / Ultra zu kaufen. Leute, die solche Karten kaufen, wollen immer das neueste und beste..

Und 8900 klingt nunmal viel besser als 8800, egal ob GT oder Ultra dahinter steht.. Und somit hätten noch mehr die 8900GT gewollt, wo man wohl von vornherein wußte, dass man sie nicht liefern kann, aber hätte nicht zur vermeintlich alten 8800 gegriffen. Also hat man gehofft, das dann zu den großen Brüdern (und auch viel teureren) vermehrt gegriffen wird, weil die 8800GT ja wirklich eine geile Karte ist und sich sowas rumspricht.


Allerdings scheint das so ja nicht wirklich zu klappen.


HOT schrieb:
Technisch gesehen hast du recht. SM4.1 ist nur ein Update. Aber ein nicht unwichtiges - es garantiert endlich AA unter DX10 in jeder Situation und zwar ohne Grafikfehler. So gesehen ist der Sprung in der BQ natürlich enorm. Alles eine Sache des Standpunktes.

Die Unterschiede bei Crysis u.a. beim Wasser sind beachtlich. Also scheint es entweder doch nicht nur ein kleines Update zu sein, oder es wurde einfach eine Menge an der Ausführung von DX10 verbessert.
 
Zuletzt bearbeitet:
Zurück
Oben