Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Es staunten wahrscheinlich nicht wenige, als Nvidia vor kurzem die neusten Notebook-GPUs der Öffentlichkeit vorgestellt hatte. Nicht nur, dass diese auf der GT200-Architektur sowie dem 40-nm-Prozess bei TSMC basiert, darüber hinaus sind die Rechenkerne Direct3D-10.1-fähig. Bisherige Nvidia-GPUs können nur mit Direct3D 10 umgehen.
Wies aussieht kriegen die DX11 noch ne Weile nicht gebacken. Also ich werde mir garantiert keine DX10.1 Karte mehr kaufen. Die 9800 GTX reicht mir sowas von und außer DX11 gibt es keinen Grund für mich zu wechseln. Falls Nvidia wesentlich länger als ATI braucht, wird meine DX11 Karte halt eine ATI.
Andererseits würde es sich nicht im geringsten lohnen eine High-End-Karte neu rauszubringen nur weil jetzt DX10.1 mit an Board ist - ein halbes Jahr vor Launch der neuen DX11-Karten. Dann würden sich wieder alle über das Namenschaos beschweren. Aber meckert nur, mehr Features sind natürlich immer schlecht. Und eure jetzigen Grafikkarten werden dadurch ja auch langsamer...
Was heißt meckern? Nur weil es Kundennepp ist? Diese Karten werden bei DX10.1 Spielen eh bescheidene FPS Raten haben.
Innsbesondere frage ich mich warum nvidia sich seit Jahren gegen dx10.1 werhrt, jetzt aber damit ankommt. Soll damit der Werbegrund von ATi entzogen werden oder was?
Ich bezweifele stark, dass Nvidia die DX10.1 API auch im Performance bzw. Highend Segment einführen wird. Sie wird warsch. jetzt nur gerade mit eingebaut weil Sie verfügbar ist und die genannten Lowend Karten eh überarbeitet werden sollten. Und "DX10.1 Unterstützung" macht sich halt sehr gut im MM Prospekt.
Warum sollten Sie jetzt neue Revisionen der High End Chips entwickeln inc. 10.1 ? Im Herbst bzw. Winter 09/10 stehen die DX11 API zur Verfügung mit der Einführung von Win7. Mir ist nicht bekannt, dass jetzt viel Spiele, die entwickelt werden, die 10.1 API nutzen wollen.
Und dann im Herbst zu sagen wir haben neue DX10.1 Karten ?!? Ups aber ATI hat ja schon DX11 Karten mit den RV870... na ja egal. Glaub ich einfach nicht.
Andererseits würde ich es Nivdia zutrauen durch ein paar neue Modelle den Kunden in die irre zu führen
Sehe ich auch so wie Turbostaat. Das ist (etwas überspitzt) irgendwie genauso sinnvoll, als wenn Intel GPGPU auf der GMA4500 anbieten würde. Aber Hauptsache man hat wieder ein Werbeschlagwort, was man ja eigentlich nieeeee im Leben niemals nich unterstützen wollte.
Vielleicht reagiert NVidia damit auf die Nachfrage der OEMs? Vielleicht geht es nicht nur um FPS in Games? Vielleicht "testen" sie damit auch nur im großen Umfang einfach nur ihre Architektur.
Im generellen ist es nicht unüblich, das die kleineren Karten moderner sind als die großen - denn die großen Modelle sind immer die ersten, die entwickelt werden. So sind bei den kleinen GeForce meist auch die Videobeschleunigungs-Fähigkeiten weiter ausgebaut als bei den weit teureren Modellen.
Ich meine ja auch nur... sich jetzt nur schon wieder über etwas künstlich aufzuregen, dass euch keinerlei Nachteil bringt, ist Schwachsinn.
Das lustige is ja auch das der G92 noch integriertes HDCP usw hatte und der GT200 das wieder alles auf nen extra Chip ausgelagert hat. Oh man NV...erst über nen Jahr behaupten DX10.1 wäre total überflüssig und es dann selbst einführen ;-)
Die paar Spiele die es in 10.1 gibt können doch mit den Karten garnicht gespielt werden :-D, also jedenfalls nich akzeptabel und schön. Naja der Imageschaden für NV hält sich ja eh in Grenzen und die paar Hardwarekenner in den Foren, interessieren doch eh kaum. Oh man der Montag fängt ja gut an.
Nach Microsoftrichtlinien muss DX immer Abwärtskompatibel sein, zu deutsch:
Microsoft wird es nicht zulassen das nVidia diee Hürde mit einer Mobilen GPU abfertigt!
bei den karten macht dx10.1 imho sinn, da sie vermutlich für lange zeit nicht abgelöst werden wird. allerdings will nvidia wohl nicht seinen eigenen dx11-flagschiffen vorgreifen...
Naja wenn sie schon Geld und Zeit investiert haben die kleinen Notebookchips zu überarbeiten waru msollen sie das dann das Investierte nicht auch auf den Desktopmarkt ziehen. Gründe dafür gibt es wohl mehrere. Die OEMs können jetzt mit DX10.1 werben, faktisch halte ich das sogar für sinnvoll bei den kleinen Karten. Es soll ja die selben Effekte wie DX10 produzieren aber mit besserer Performance. Für nV selber könnte ich mir eher vorstellen, dass die Chips wichtig sind weil sie in 40nm produziert werden. Einerseits können sie damit Erfahrungen sammeln und andererseits kann es sicher nicht schaden wenn man bei TSMC mehr 40nm Karten produzieren lässt als ATI. Da könnte man sich erhoffen bevorzugt behandelt zu werden wenn es dann darum geht High-End Chips in 40nm zu produzieren. Aber das ist reine Spekulation
Was mich wunder nimmt ist a.) ob sich der Stromverbrauch der Karten dadurch nochmals senken wird resp. höhere Taktraten möglich sind und b.) ob nV die kleinen Chips in brauchbaren Massen kriegt oder obs so endet wie mit den HD4770er im Moment und wenns klappt natürlich ob die Chips dadurch soviel günstiger werden, dass der Endkunde auch davon profitieren kann
dx10 konnte man auch schon vergessen. sorry das grafik wunder überhaupt crysis ist ja unbestreitbar. wo ist da jetzt dx10 bei crysis war es noch drin aber mit der ini konntest nazu alles einstellen was du wolltest und dann sah ex unter dx9 genauso aus wie unter dx10. bei dem addon hat dx10 ganz gefehlt und dx9 sah sogar besser aus, siehe gamestar. sorry das einfach nur lachhaft. fragt euch mal wie viele games hattet ihr in der dx9 ära und wie viele wirkliche dx10 games hattet ihr. ich hatte grade mal 4^^. dx11 wird sicherlich fast das selbe passieren und der dx10.1 schritt war von anfang an schwachsinn.....
verstehe den Sinn nicht ganz. Warum bauen die Chips in den Lowcost bereich ein die mit der Schnittstelle gar nicht fertig werden von der Rohleistung her die die Programme (Games) in der regel verlangen.
Also ich kann mir kein DX10.1 spiel vorstellen was so niedrige Anforderungen hat das es auf einer 9500GT läuft...flüssig in 1280x1024 oder mehr.