News AGEIA PhysX ab Herbst verfügbar?

Frank

Chefredakteur
Teammitglied
Registriert
März 2001
Beiträge
8.779
Wie die Kollegen von The Inquirer erfahren haben, sollen aktuell schon die ersten Karten der weltweit ersten Physical Processing Unit – kurz PPU – von AGEIA vom Band laufen und sich der Marktreife entscheidend nähern. Als einer der ersten Partner hat sich u.a. Asus bereit erklärt, die Neuheit zu vermarkten.

Zur News: AGEIA PhysX ab Herbst verfügbar?
 
nicht schelcht so ein ding
aber ich werd mir jetzt erstmal meine 7900gtx un meien x2 holen
da brauch ich die PPu für den anfang noch nicht
aber wenn der preis billiger wird isses ne überlegung wert


edit: sorry tippfehler
 
Zuletzt bearbeitet:
irgendwann wird die PPU zwingend für spiele... = noch mehr geld ausgeben, damit man auf dem PC spiele spielen kann? ich glaub, wenn das so weitergeht, kaufe ich mir einen günstigen PC zum arbeiten und ein XBox o.ä. zum spielen, was dann definitiv billiger kommt als ein teurer CPU mit GPU und PPU :(
 
Klingt definitiv nicht schlecht, auch wenn der Preis mal gesalzen ist. Na ja, die ersten 3D Beschleuniger waren ja auch nicht billig und Zusatzkarten. Man darf gespant sein, vllt ist das ja ein neuer produktiver weg in der Spieleperfektionierung oder allgemein in der Simulation von Vorgängen.
Aber erstmal abwarten bis das aufm dem Markt ist und es ausreichende Unterstützung Seitens der Spiele gibt.
 
Ich find das Ding auch nicht mal schlecht.
Nur Schade, dass sie nicht vom Start weg für PCIe x1 zu haben ist.
Sowas hätte ich bei dem zukunfstorientierten Design eigentlich erwartet.

Interessant dahinter ist auf jeden Fall das NovodeX SDK.

Irgendwann fängt man eben an Sachen auszulagern, wenn man Leistungen auf einer einzelnen Logik nicht mehr schlagartig groß steigern kann. Daraus sind halt heuer so Sachen wie Dual-Core, Dual-Channel, SLI/Crossfire etc. entstanden. :rolleyes:

Hier noch ein paar Demo-Videos:
http://techgage.com/articles/interviews/AGEIA/DivxPhysxAirtight720x400.avi
http://techgage.com/articles/interviews/AGEIA/physx_boulders.exe
http://techgage.com/articles/interviews/AGEIA/physx_carwash_lavajets.exe

mfg Simon
 
Vielleicht ist die Bauart in PCI-Design nicht richtungsweisend aber höher kompatibel als sein Express-Pendant. Denn nahezu jedes PCI-Express-Board besitzt PCI-Anschlüsse. Und nach eigenen Angaben ist bisher kein Umstieg nötig oder sogar sinnvoll.
 
Hab auf dem Gewartet :)
Jetzt ur noch für PCI-Express und die Preis etwas runter sowie Kinderkrankheiten beseitigen und ich wäre voll dabei!
Ich finde es doof das die CPU's nicht schneller werden und einfach an Ihre Grenzen anstossen.
So ein PPU wäre genau das richtige.
Da braucht man nicht mehr für Games extra sein PC OC'en damit es genug Powert hat :D
 
hm,die idee scheint der bringer schlecht hin zu sein.
aber wenn das wirklich mal für jedermann sein soll,finde ich,sollte AGEIA sich noch mal gedanken über den preis machen.
aber ansonsten:daumen:
 
Danke für die Demo-Videos, Simon!
Sieht schon nett aus, aber sooo hin und weg bin ich jetzt nicht, daß ich da 300 Eur oder selbst "nur" 200 Eur dafür hinblättern würde ohne mir das fünf mal zu überlegen.... 100 Eur wären für mich ok, wie bei ner Soundkarte.
Zumal sich erst noch zeigen wird, ob die Karte in sagen wir mal 12 Monaten auch wirklich in vielen Spielen Verwendung findet und ob man davon auch was merkt im Spiel.

PS: Wieso läuft die Physik in den Demos wieder in Zeitlupe? Das hab ich schon bei vielen verschiedenen Physikengine-Demos gemerkt... läuft zwar mit 200fps, trotzdem fallen da die Jenga-Türme zu langsam. Ich glaub nicht, daß das Absicht ist...
 
Zuletzt bearbeitet:
Also ich warte definitiv auf die zweite Generation...
Zum Einen kann ich mir nicht vorstellen, dass sie so etwas völlig neues ohne Kinderkrankheiten vom stapel lassen,
zum anderen will ich wirklich die PCIExpress, denn wenn ich schonmal drei slots davon auf meinem Board hab, dann möchte ich auch endlich mal einen nutzen.
Wirklich brauchen wird man's ohnehin erst viel später.

Sind 28W eigentlich noch im Bereich einer Passiv-Kühlung?
 
28 W sollten noch in Passiv-Regionen sein.
Nun, ich denke Ageia wird irgendwann aufgekauft, entweder von einem GPU- oder nem CPU-Giganten. Da wird noch mehr passieren, da bin ich mir ganz sicher! Aber vor zwölf Monaten würd' ich da noch nicht drauf zugreifen.

Wir werden sehen, was die Fachmagazine, online wie offline, dazu sagen werden.
 
Ist erstmal was für Freaks, die nicht wissen wohin mit ihrem Geld.

Aber nachdem den Grafik-Karten Herstellern langsam die Ideen ausgehen und nur noch mehr parallelisiert wird bin ich zuversichtlich, dass die PhysX in der nächsten - spätestens übernächsten - GPU Generation integriert wird.

Sinnvoll verwenden kann man so eine Karte in Spielen bestimmt (sofern man bei Spielen von sinnvoll reden möchte). Sei es für Eye-Candy, z.B. bei Explosionen (als addon zu bestehenden Spielen möglich) oder später auch als ganz eigenes Spielelement bei Neuentwicklungen. Und die CPU wird dabei auch noch entlastet und kann sich intensiver mit der AI beschäftigen.

Ich freu mich auf PhysX Spiele und Simulatoren.
 
Ich werde mir das Teil recht zugig zulegen. Bin schon gespannt wie ein Flitzebogen darauf, und kann es kaum erwarten eigene Demos dafür zu basteln. :)
 
Die Idee an sich finde ich interessant, trotzdem sehe ich keine echte Notwendigkeit, eine Physikkarte um EUR 250-300,- zu kaufen.

Beispielsweise hat Sony für die PS3 nur das SDK lizensiert, beabsichtigt aber die Berechnungen selbst auf dem Cell-Chip laufen zu lassen. DualCore-Systeme sollten somit durchaus in der Lage sein, annähernd die selbe Leistung zu vollbringen, schliesslich können die Physikberechnungen auf dem zweiten Kern ausgeführt werden.

In absehbarer Zeit wander die PPU wahrscheinlich auf die Grafikkarte, denn bei diesen Preisen wird man sich bald keinen Spiele-PC mehr leisten können...
 
Es gab auch Leute dir vor Jahre keinen Sinn in 3D Zusatzkarten gesehen haben ^^ Wenn zB ein Blockbuster wie Gothic3 oder ähnlichers nur mit so einer Karte flüssig zum laufen zu kriegen ist (sprich ohne die Karte haste dann 10fps und mit der Karte dann 50 ;) ) und die Dinger so um die 150 Eus kosten dann geht die garantiert weg wie warme Semmeln. Ist alles absolut nur eine Frage der Unterstützung durch Spiele, siehe CD Rom Laufwerk, hat sich auch erst richtig durchgesetzt als die ersten Spiele nurnoch auf CD rauskamen...

@yahirhem - Und wenn du dann ein Spiel hast wie Gothic3 das für Dual Core Prozessoren optimiert ist dann kannste die PPU für die Physik berechnungen nutzen, vorallem weil die viel effektiver da drin is, schließlich is die dafür optimiert. Kann ja sowas geben wie früher der "Software" Modus zB in Half Life ^^

Ne CPU kann sowas niemals so effektiv machen wie ein speziell dafür entwickelter chip... Sonst kannste ja sagen wozu brauch ich ne GraKa mit HDTV unterstützung, macht alles meine CPU, hab ja Dual Core ;)
 
Butterbemme schrieb:
PS: Wieso läuft die Physik in den Demos wieder in Zeitlupe? Das hab ich schon bei vielen verschiedenen Physikengine-Demos gemerkt... läuft zwar mit 200fps, trotzdem fallen da die Jenga-Türme zu langsam. Ich glaub nicht, daß das Absicht ist...
Ich denke schon dass das Absicht ist, weil wenn´s in Realtime abläuft kann man nicht genau erkennen ob die Collisiondetection sauber arbeitet usw.
Das wurde bloß für demonstrationszwecke in Zeitlupe gezeigt.
Ich für meinen Teil finde schon dass das Teil das Geld wert ist, wenn man sich das Demovideo reinzieht, und mal genau den vorletzten Teil beobachtet wo das Flugzeug in den Kistenstapel rauscht. *puh*
Sowas kann man definitiv nicht, auch nicht auf dem 2. Core der CPU, berechnen. ;) Dualcore ist auch kein Zauberwundermittel! :D
Die Jungs schreiben doch auch dass auf der Karte die 30 fache Leistung wie die einer CPU zur Verfügung steht.
 
Zuletzt bearbeitet:
So einen Chip sollten die wirklich auf jede Grafikkarte packen. Eine Extra Zusatzkarte finde ich irgenwie sinnlos, vor allem, weil die wieder einen PCI Steckplatz blockiert, von denen es bei neueren Boards nur noch wenige gibt. Allerdings wird man für den onboard Einsatz auf Grafikkarten die Verlustleistung noch senken müssen. 28W direkt für das allererste Produkt sind ja schon ganz schön happig.
Aber eine gute Entwicklung ist es trotzdem. Ich freu mich schon auf Games wo endlich jedes einzelne 3D-Objekt beliebig bewegt, kaputtgeschlagen, ... werden kann. Eben wie in der Realität. Mich hat nämlich immer aufgeregt, dass in den Games alles (bis auf Dinge die extra für den Spielablauf benötigt werden) irgendwo festbetoniert ist, und selbst bei einer Explosion reglos auf der Stelle klebt. Sowas ist einfach nicht realistisch. Wenn der Chip es schafft so etwas realistisch zu berechnen wäre er schon sehr sinnvoll.
Man stelle sich einmal vor: In Battlefield wird eine Granate in ein Gebäude geworfen, die mit einer Druckwelle explodiert, wirft umherstehende Möbel gegen die Wand, die dort zerschellen, Glasflaschen, die auf Tischen standen knallen auf den Boden, und zerplatzen mit einem klirrenden Geräusch, wobei sich der flüssige Inhalt auf dem Boden verteilt. Wenn die Grafik dann noch stimmt, dann hätten wir endlich realistische Computerspiele.
 
Herbst? Das ist ja super! Freu mich schon tierisch! Schade aber, dass die PCI-Expresslösung erst später kommt! Sollte tatsächlich z.B. für Doom3, FarCry oder Half Life 2 ein Patch reichen bzw. dafür nachgereicht werden ist die Karte so gut wie gekauft! Weil dann wäre ja eine befriedigende Unterstützung vorhanden! :)
 
Zurück
Oben