News Ageia bringt PhysX fürs Notebook

Tommy

Chef-Optimist
Teammitglied
Registriert
März 2001
Beiträge
8.193
sinn von dem teil > keinen!
siehe die ganzen desktop physikbeschleuniger...
 
Gibt es eigentlich einen Grund so eine Karte zu stecken? Kann man damit Effekte darstellen, die ohne nicht gehen (abgesehen, dass es CPU und GPU evl. entlastet)? Wer kauft sich sowas?
 
Jo, kauft am PC schon kaum einer (da wenig Softwareunterstützung).... wieso dann Laptop?
 
Vielleicht haben die Karten noch keinen wirklich konkreten Nutzen, allerdings finde ich die Richtung, die sie vorgeben sehr gut und auch notwendig. Physik in Spielen wird im Vergleich zur Grafik viel zu sehr vernachlässigt, dabei ist sie mindestens genauso wichtig.
 
nutel schrieb:

Nein, gibt es natürlich nicht. Jede Hardware, die irgendetwas beschleunigt, ist auf einen Einsatzzweck festgelegt und nie so frei wie eine echte CPU. Bei den Grafikkarten ist es ja genauso, die sind auch nur für die Beschleunigung zuständig. Pixars Renderman nutzte z.B. schon weit vor den ersten GPUs Pixel-Shader.
 
Ob Desktop oder Notebook.
Dieser ganze Ageia PhysX Kram, ist doch fürn Arsch.
In Zeiten von Quadcores, sehe ich da erst recht keinen Sinn.
 
hab des öfteren gesehn, dass sich leute wundern warum trotz der physix kart die frames weniger wurden. diese karte hat nicht den sinn, games flüssiger darzustellen, sondern ermöglicht ein realeres spielerlebnis (sinn lassen wir mal bei seite) die grafikkarte wird so gezwungen, detaillierter die bilder (z.b. explosionen) widerzugeben.
man hat vielleicht 3 frames weniger, aber weitaus mehr realität im spiel.
hoffe wird mal kapiert. ;)
 
Es wäre besser, es gäbe endlich Spiele, die einen echten Nutzen von der Hardware ziehn...
 
Simpson474 schrieb:
Nein, gibt es natürlich nicht. Jede Hardware, die irgendetwas beschleunigt, ist auf einen Einsatzzweck festgelegt und nie so frei wie eine echte CPU. Bei den Grafikkarten ist es ja genauso, die sind auch nur für die Beschleunigung zuständig.

türlich kann man mit der physx karte dinge darstellen die sonst do in realtime nicht gehen !

Pixars Renderman nutzte z.B. schon weit vor den ersten GPUs Pixel-Shader.

jeder andere renderer hat auch "shader"...
 
Meiner Meinung nach ein Schritt in die falsche Richtung, abgesehen davon finde ich alleine die Desktop-Lösung milde ausgedrückt "dumm" - Es läuft nur darauf hinaus mehr Geld für mehr Hardware auszugeben und wenn das so weiter geht haben wir für alles mögliche eigene Karten, demnächst die Ageia KIx-Karte für intelligentere Bots ! :rolleyes:
 
nObody007 schrieb:
man hat vielleicht 3 frames weniger, aber weitaus mehr realität im spiel.
Wie viele schon gesagt haben, sind die Karten in Zeiten des QuadCores sicher unnütz. Wenn irgendein Spiel mit dieser Karte realistischer aussieht, dann liegt das nur an der Profitgier des Entwicklungsstudios. Es ist so ähnlich, wie mit dem "nVidia the way its meant to be played"-Slogan, der den Entwicklungsstudios Geld einbringt. Der Hersteller der Physx-Karte zahlt den Entwicklungsstudios Geld, damit eben die Karte gepusht wird. Dafür will der Hersteller dann aber auch eine Bevorzugung dieser Karten im Spiel.

@Genoo: Leider gibts das schon, aber nicht von Ageia. Hier ist ein Link.
 
Zuletzt bearbeitet:
Anfangs war ich von der PhysX-Idee recht begeistert. Mittlerweile halte ich es für einen Flopp. Anders ausgedrückt: Der Durchbruch von PhysX steht genauso unmittelbar bevor wie der von Linux auf dem Desktop-Markt. ;)
 
ich weiß nicht warum alle meckern das das teil unsinnig sei. was meint ihr wie die 3D GPU's angefangen haben? ich sag nur Monster! dann haben sie angefangen die normale grafikfunktionen und die 3D beschleunigung auf eine karte zu packen. das sind die heutigen grafikkarten. angefangen hat das jedoch mit "zusatzhardware" die neben der GPU lief.

vielleicht wird es hier aus so laufen bzw ati und nvidia haben doch schon gezeigt das es möglich ist physik mit der gpu zu berechnen. jetzt fangen sie an den sound mit auf die karten zu packen (wegen HDMI). mit der physik wird das auch nicht mehr lange dauern.

zudem gab es vor längerer zeit eine stellenausschreibung von M$ für eine "DirectPhyiscs" schnittstelle. wenn die entwickler also nur eine schnittstelle ansprechen müssen die von allen herstellern bedient wird (so wie DX), dann wird sich die physikbeschleunigung auf alle fälle durchsetzen. man kann sich dann aussuchen ob es ne externe karte sein soll oder es auf eine GPU legen möchte. die verwaltung übernimmt die schnittstelle bzw die treiber der hersteller die diese schnittstelle bedienen müssen.

ich hoffe nur das das bald mal kommt den wenn man sich diese physikdemos anschaut die zeigen was "möglich" ist, will ich das unbedingt haben^^. leider wird es von den gamecodern nur halbherzig genutzt sodas sich diese hardware die im moment zur verfügung steht, kaum genutzt wird.
 
Sinnlosigkeit ftw!
Mehr fällt mir dazu nicht ein...

@9
Sehe ich genauso, die Zukunft der Physikberrechnungen gehört den Mehrkern Cpu's
 
@5455: Geile Aussage. Gefällt mir.

Und sehe ich genauso. Wenn diese Ageia Karten ein nettes Feature wären, was nen 5er extra kostet, dann würde das vielleicht laufen. Aber wer ist denn so bescheuert und legt nen 100er extra hin, nur um 3 Spiele besser spielen zu können?
Ganz nebenbei, wenn die Dinger nur 20 Watt im Desktop ziehen, warum gibts die dann nicht passiv??
 
10 Watt Leistungsaufnahme... ein recht gut ausgestattetes Notebook mit externer Grafiklösung, Bluetooth, WLAN etc. verbraucht im Spielebetrieb 20-25 Watt. Entsprechend sind die 10 Watt doch eine ganz schöne Belastung, die die Laufzeit um Stunden drücken - insofern ist eine Eignung eh nur im Netzbetrieb gegeben. Die 10 Watt deuten zudem auf eine umfangreiche Wärmeentwicklung hin - in einem Expresscard-Gehäuse würde das sicher grenzwertig.
 
@15: Dein Vergleich zwischen PhysX und Linux hätte nicht schlechter sein können.
Es stimmt schon, das die PhysX Karten am aussterben sind, bevor sie richtig 'geboren' wurden!
Aber Linux ist sehr wohl ( zwar langsam aber sicher ) immer näher am Durchbruch, siehe z.B. Dell- Ubuntu PC's und Lenovo- Suse Notebooks ;)

Nur so, der richtigkeit halber

mfg blasterbanane
 
Zurück
Oben