News Nvidia wird PhysX-Karten auslaufen lassen

Ich empfinde dies als Mist, da eine gute Idee wie damals 3dfx wieder den Bach hinuntergeht, auch vom Treibersupport können sich die Ageia Freunde wohl hiermit verabschieden :-(
Es gibt irgendwann nur noch große welche alles so steuern wie sie wollen, eine bedenkliche Entwicklung in allen Bereichen der Gesellschaft.
 
Ich finde, das ist die richtige Entscheidung. Die GPUs bekommen mit jeder Generation zusätzliche Shader, Pipelines oder was auch immer - ein paar davon kann man gerne der Physik opfern. Mal ganz abgesehen davon, das noch dieses Jahr 8-Kerner an CPUs anstehn... und sich das wohl jährlich um 50% steigern wird.

"Dumm" ist diese Entscheidung wohl hauptsächlich für alle, die jetzt schon eine PhysX hatten. Nun aber wird das ganze einer sehr viel breiteren Masse zugänglich gemacht - wenn auch "nur" über Cuda. Damit sind schon jetzt alle GF8-Besitzer zukünftige PhysX-Eigner ;)
 
Zuletzt bearbeitet:
Ist ja klar das die die Karten auslaufen lassen, da die Physik demnächst bestimmt bei den NVidia-Grafikkarten mit eingebaut wird. So wird es kommen....
 
War ja klar. Aber wer kauft eigentlich PhysX karten? So hat man gleich bei nvidia Karten die Unterstützung.
 
Schade,
da die meisten Games sowieso Graka-Limitiert sind, frage ich mich wo die Leistung für "Physik" herkommen soll? Wo die Leistung durch die Darstellung der zusätzlichen Physik-Elemente ja sowieso schon "mehr" belastet wird.....

Naja.. nvidia wird schon wissen was sie da machen, sie wollen ja ihre Tripple-SLI-Scheisse an den Mann bringen.
 
sowas in auf die grafikkarte zu bauen macht doch auch einfach mehr sinn. wer will schon ein zusetzlichen steckplatz opfern dafür? im endeffekt ist es ja auch günstiger für den endverbraucher der nur ein produkt braucht. sound lan usb firewire und einfache grafikkarten gibt es ja auch schon lange onboard, stellt euch mal for ihr brauchtet für jedes ein steckplatz und müstet es einzeln dazu kaufen -.-

ist nur die frage was ati dagegen stellen wird?
 
Zusätzliche Physik-Recheneinheiten auf die GPU zu pflanzen würde ja vll noch Sinn machen. Aber wieso belastet man denn die GraKa beim Spielen zusätzlich? Der Sinn entzieht sich mir irgendwie.
Da kaufen sich die ganzen Leute schon für teuer Geld ihre unnötigen 3+Ghz Core2s und nun wird die CPU noch mehr entlastet und die eh schon überforderte GraKa ganz gekillt?
Oder ist die GraKa da wirklich so gut drin, dass sie das mit einem Shader als Nebenprodukt berechnet? :evillol:
 
Hi,

ich finde das irgendwie auch nicht so prickelnd aber man gewöhnt sich ja solangsam dran bei NV. Es scheint einfach diese rücksichtslose und teilweise leicht ignorante Art zu sein die auch deutlich zum Erfolg beiträgt.

Die Frage ist nur ob NV sich damit nicht aufs abstellgleis stellt langfristig. Zwar sind viele Spiele durch NV mitentwickelt, aber noch haben Intel und ATi zusammen wesentlich mehr anteile vom Markt und haben beide die Havok technik in petto. Ich denke NV wäre wirtschaftlich und strategisch klüger gewesen eine PCI/PCIe zusatz karte für leute zu stellen die keine NV GPU haben. Zwar sieht das im ersten moment danach aus als ob man die Konkurrenz unterstützt, aber man macht nen bisschen Geld und man verbreitet die durchaus gute technik weiter.

Gruss Jens
 
Meiner Meinung nach die einzig richtige Entscheidung. Kann mir gut vorstellen, dass man wenn man sich eine neue Grafikkarte kauft dann seine alte Karte zusätzlich als Physikbeschleuniger verwenden kann.
 
sollten diese solange angeboten werden, bis am Markt keinerlei Interesse mehr bestehe

Bestand denn überhaupt jemals wirkliches Interesse?
 
Ist nur die Frage was mit den Spielen ist die jetzt PhysX Support schon drinn haben, werden die zukünftigen NVidia karten das dann übernehmen oder inkompatibel dazu sein?
 
Lar337 schrieb:
Zusätzliche Physik-Recheneinheiten auf die GPU zu pflanzen würde ja vll noch Sinn machen. Aber wieso belastet man denn die GraKa beim Spielen zusätzlich? Der Sinn entzieht sich mir irgendwie.l

Genau meine Gedanke.
Der Zusätzliche Kontent (Partikel etc etc) muss ja nun nicht nur von der GPU berechnet, sondern auch dargestellt werden. Sie bekommt also zu der normalen Beschäftigung von Grafiken berechnen und darfstellen gleich noch zwei neue Aufgaben-Felder zugeschanzt.

Wenn ich jetzt Crysis (Scheiss Beispiel ich weiß) sehe, das von einer Graka gar nicht zu schaffen ist, und mir überlege was passiert wenn diese Graka jetzt auch zusätzlich noch Zeug darstellen und berechnen muss, dann frage ich wo das hinführen soll...

Ich sehe da nur eine Möglichkeit .. eine zweite Graka die das übernimmt.. und dann wären wir wieder genau da wo die Phys-X aufgehört hat^^.
 
Da muss man aber auch etwas in die Zukunft blicken...

In 2 Jahren wird ja wohl voraussichtlich Grafikkarten zu kaufen geben, die Crysis gut darstellen können. Und irgendwann ist man am Ende der Bildqualitätsverbesserung angelangt. Und dann muss man eben die Phyik verbessern, wenn man mit einem Spiel beeindrucken will...
 
Warum kaufen die dann den Laden, die wären auch so den Bach runter ?! Da hat man wohl offensichtlich Angst gehabt, dass ein anderer zuschlägt und es als Marketingmittel gebraucht ? Ansich nicht schlecht die Idee einer reinen Recheneinheit für solche Aufgaben. Aber in Zeiten von Multi-CPU kann das auch genauso einer der restlichen 3 Kerne machen, wo doch bald jeder einen 4-Kern hat. Auch Dual-CPUs werden von gängiger Software nicht voll ausgereizt. Gute Idee, schlechte Zeit, schade ansich. Im Profibereich sind solche "Coprozessoren" Standard. Auch schlichte PC-Spiele hätten sich damit ein bisschen schöner und schneller machen lassen. Naja, irgendwann vielleicht mal...
 
RIPchen schrieb:
Aber in Zeiten von Multi-CPU kann das auch genauso einer der restlichen 3 Kerne machen, wo doch bald jeder einen 4-Kern hat.

Da liegste leider mal voll daneben, nicht mit dem Thema beschäftigt?

Ich ziehe mal wieder Crysis als vertreter der CPU-Physik ans Land.
Da gibt es tolle Videos wie einer 3000 Fässer durch die Gegend fliegen lässt.
Das ist berechnet mit 8SPF (Sekunden pro Frame).
Die Phys-X schafft das ganze in 60 FPS.

Jetzt kannste Dir ja ausrechnen wie viel schneller die CPUs noch werden müssen bis sie an die Leistung einer Physik-Karte herankommen.
 
Fässer sind Objekte mit Kollision, die kannst du nicht effektiv mit einer PhysX Karte berechnen, außer du schaltest die Kollision ab was aber nichts mehr mit Physik zu tun hat.
 
magix schrieb:
ist nur die frage was ati dagegen stellen wird?

Intel hat Havok gekauft, um Physik wieder per CPU berechnen zu lassen, also wird's zwagsläufig auch auf AMD-CPUs laufen, Nvidia stand im Zugzwang und brauchte irgendwas um dagegenhalten zu können, und es ist sehr wohl im Sinne von Nvidia wenn AMD/ATi hier mitzieht, denn kein Spieleenwickler wird irgendwas programmieren, was nur auf Nvidiakarten läuft. Gemeinsamer Standard ist eh in Sichtweite -> DirectX11, viel interessanter ist vielmehr, was Nvidia gegen Fusion/Swift anrichten kann, bzw. ob das dazugekaufte Knowhow von Ageia hilft.

Ansonsten wirklich klasse eingefädelt von Nvidia, statt einer Physikkarte für 99€, braucht man jetzt eine zweite Grafikkarte für 199€ die genau das selbe erledigen wird, großartig.
 
@supastar
Ich denke, dass es da noch einiges an Leistung bedarf, bis wir an dem Punkt angelangt sind, wo grafisch nichts mehr zu verbessern ist. Zudem, wenn man schon von Zukunft redet, muss man auch beachten, dass Grafikkarten zunehmend auch höhere Auflösungen als 1280 stemmen müssen.
Auf jeden Fall ist mir eine Physikberechnung über die CPU lieber als über die Grafikkarte. Die CPU wird ja hoffentlich irgendwann genug Power haben für Physik. Besser als nichts. So RIP PhysX-Karte.
 
Zurück
Oben