News Ageia bringt PhysX für PCI-Express

Softwarehersteller setzen immer mehr auf Mehrprozessoren, diese werden sich auf Dauer auch durchsetzen, sieht man jetzt schon bei Musikprogrammen wie Ableton Live 6 oder Cubase SX3 z.b. mit Dualcore Unterstützung.

Spielehersteller werden auch immer mehr drauf setzen, bestes Beispiel Alan Wake
 
@21:
du hast das allerbeste beispiel an land gezogen: half life 2
das hat super physikeffekte, die alle von der cpu berechnet werden. und das sogar auf solchen krücken wie meinem celeron 2,4. man braucht keine physikkarte, nur um schöne effekte im spiel zu haben. die spieleentwickler sollten sich mal für ihr anstrengen und performante games programmieren. valve hats mit hl2 vorgemacht und die anderen sollten es nachmachen.

@topic:
finds gut, dass die jungs und mädels von ageia gepeilt haben, dass es mit PCIe besser ist. wie hier schon gesagt wurde, haben die meisten PCIe x1 oder x4 steckplätze aufm board, aber keiner benutzt die. es kommen immer weniger PCI-slots auf die motherboards und immer mehr PCIe-slots. allerdings kommen kaum karten, die den neuen standard nutzen.

trotzdem find ich es sinnlos, so eine eigenständige karte für so viel geld zu verkaufen.
ich fänds besser, wenn die sich mit den GPU-Herstellern zusammentun würden und ihre chips zusätzlich auf Grakas packen würden. aber ich glaub ageia hats sich verhunzt, weil die den zug verpasst haben. ati und nv sind ja jetzt auch schon dabei ihre eigenen physiklösungen zu bringen...
 
Naja, bei mir kommts
1. Auf den Preis an und der ist echt inakzeptabel...:mad:
2. Auf die Spieleunterstützung und die ist derzeit auch nicht wirklich besser...:mad:
3. Aufs Preis/Sinn Verhältnis und da kommt für mich eher ein Dualcore in Frage!;)
 
kommt mir so vor, als hätten die überhaupt keine Ahnung warum "keiner" sich diese (anfangs) doch recht interessante Hardwarekomponente zulegt...
 
Ich denke das war mal EIN wichtiger Schritt für Ageia in die richtige richtung.

viele verwechseln hier auch einiges... die Effekte von HL2 sind GAME-physik, also wenn ne tonne einen zombie kill usw... das wird die ageia nie berechnen. was die physX karte berechnet ist - ich nenne es mal - "Grafik"-Physik. und da kommen selbst multicore-CPU's nicht hin, weil sie einfach nicht für partikeleffekte spezialisiert sind...
 
Die Karte bleibt für mich Mist!
Zwar spricht jetzt ein Punkt weniger gegen die Karte und es war gute Schritt von Ageia, diese Karte zuvermarkten, aber auch mit PCIe ist sie einfach nur viel zuteuer. Und auch wenn genug Geld überhat wieso(?) soll man das für diese Karte ausgeben, den wenigen Spielen die davon profitieren.

Wenn später mal fast alle oder mehr Spiele davon Nutzen abgewinnen oder sich Lösungen von ATI und nVidia als Schuss in den Ofen erweisen, könnte man eventuel mal über die Anschaffung nachdenken.

(Und ein Dual Core/Multi Core wird nie die Leistung dieser Karte bruíngen.)
 
ut2007 wird physx unerstützen :D
wenn die karte dann noch ordentlich mit dem preis runtergeht würde ich sie sehr interessant finden. Das ist eine Klasse Idee mit der Physx!
zu dem mit der spieleunterstützung: als der shader3 rauskam, gabs auch kaum sm3 spiele, also wird physx noch kommen.
 
Ich find einfach die Dinger sind (noch) nutzlos und (noch) zu teuer. Erstmal abwarten. Wenn Spiele wirklich davon profitieren kann man neu überlegen ob man sowas braucht.
Ob PCI oder PCI Express is jetzt auch noch kein Thema. PCI wird sicherlich noch lönger ab Leben sein, solagne es praktisch keine Karten für PCI Express ibt.
 
Ja klar wir brauchen alle bald ne Ageia Physik Karte und dazu noch ne KI Karte von Intia .... und die Dualcore oder zukünftige Quadcore/Multicore CPU in unserem PC langweilt sich dann zu tote weil die nix mehr zu berechnen hat ???

KI-Beschleuniger-Chip aus Israel
09. Sep 2006, 13:31 Die in Israel ansässige Firma AIseek entwickelt einen speziellen Chip zur Beschleunigung von KI-Berechnungen vorzugsweise für realistische Szenarien in Computerspielen. AIseek nennt seine Prozessor-Entwicklung Intia.

https://www.computerbase.de/2006-09/ki-beschleuniger-chip-aus-israel/

Man könnte ja auch noch ne PCI/PCI-E Karte nur für Feuer, Explosionen oder Rauchsimulationen entwickeln usw. ..........
 
Zuletzt bearbeitet:
@28
selbst schuld wenn du ein schrotboard mit nur 2pcie- slots kaufst
jedes vernünftige hat so um die 4 davon

ausserdem ist das nur eine erweiterung des angebots, kannst dir ja en pci-karte reinbauen wenn du die physx-karte unbedingt haben willst
 
Also ich find das super, dass die endlich mal auf PCIe umsteigen, denn bei mir sind schon alle 3 PCI Steckplätze belegt und dadurch wäre eine Physikerweiterung dieser Art nicht möglich (ohne Kompromiss).
Ich finds auch schade dass viele Leute diese Karte immer so runterreden, denn die PhysX Engine ist HavokFX haushoch überlegen und das Besondere ist nunmal nicht nur die Karte, sondern die Software, die dahinter liegt.
Das Problem ist nur, dass diese Physiklösung nur das Physikalische Verhalten von Materie berechnet und nicht die Materie selbst - sprich die Karte berechnet zbsp die physikalische Reaktion von Kisten, welche von einer Granate getroffen werden, dann sagt die PhysX-Karte der CPU wo die Kisten hinfliegen, dabei berechnet die Flugbahn aber nach-wie-vor die PhysiX-Karte, die CPU bekommt also nur die fertigen Koordinaten vorgeworfen und übermittelt diese dann auch an die Grafikkarte weiter, welche dann die grafischen Effekte drunter setzt. Und das ist das Problem, es fliesst dann noch eine Variable in die Berechnung von CPU und GPU ein, dadurch entsteht für Grafikkarte und CPU mehr last, was aber angesichts Dual - bzw. Quad-Core und immer stärker werdenden Grafikkarten sich nicht so schlimm auswirkt wie es sich anhört.
Ageia sollte die Karte aber noch etwas im Preis runter setzen, denn für 220€ ist die Karte dennoch zu teuer, zumindest für meinen Geschmack, obwohl, die Karte selbst kostet vielleicht 50€, der Rest geht bestimmt auf die Software. Aber für einen Preis um die 100€ wäre das mal ein gutes Angebot.
 
CBase64 schrieb:
Ja klar wir brauchen alle bald ne Ageia Physik Karte und dazu noch ne KI Karte von Intia .... und die Dualcore oder zukünftige Quadcore/Multicore CPU in unserem PC langweilt sich dann zu tote weil die nix mehr zu berechnen hat ???

KI-Beschleuniger-Chip aus Israel
09. Sep 2006, 13:31 Die in Israel ansässige Firma AIseek entwickelt einen speziellen Chip zur Beschleunigung von KI-Berechnungen vorzugsweise für realistische Szenarien in Computerspielen. AIseek nennt seine Prozessor-Entwicklung Intia.

Glaub mir deine CPU wird sich nicht langweilen. Es bleibt noch genug übrig. Nur sind halt Grafik, Physik und vor allem KI richtige "Performance-Fresser". bei KI fällts bloß keinem auf, weil die meisten Spiele nix besitzen was man wirklich KI nennen darf. Denn intelligent is davon gar nix. Man überlege sich nur, dass es schon Supercomputer braucht, um einen Menschen im Schach zu schlagen. Wenn erstmal eine Spiele-KI eine derartige vielfalt von "Zügen" auswerten und darauf reagieren kann, dann wird man bestimmt nicht mehr böse über eine Zusatzkarte sein, die sich nur darauf Spezialisiert hat.

@ Topic: Was die Physikberechnung in Grakas angeht: Die integrieren jetze einfach andere Recheneinheiten in die Grafikchips, weil denen auf dem eigentlichen Einsatzgebiet für Grakas nichts Tolles mehr einfällt.
 
Im Moment sind Physikkarten nicht gefragt weil sie wegen der Masse an zusätzlich anzuzeigenden Objekten im Spiel die Perfomance eher bremsen als beschleunigen.
Dabei ist die Grafikperformance der High End Karten im Angesicht von "Full HD Gaming" schon jetzt bis aufs Letzte ausgereizt.
Es ist eben so das "Full HD Gaming" im Moment für die Kundschaft interessanter als schicke Physikeffekte ist.
Erst wenn die Grafikperformance so hoch ist das trotz "Full HD Gaming" noch Reserven für zusätzliche Effekte vorhanden sind wird man sich der Physikbeschleunigung wieder verstärkt zuwenden. Bis dahin werden aber noch ein zwei Jahre ins Land gehen.
An dem ganzen Fakt ändert auch das PCIe Interface der Ageia Karten nichts.
Wie einige hier schon angedeutet haben ist die ganze Idee noch eine zusätzliche Beschleunigerkarte im Gaming-PC zu etablieren schon zum scheitern verurteilt. Ich könnte mir eher spezielle Gaming Multiocore-CPUs vorstellen die neben 2-4 normalen Cores auch noch einen Coprozessor für Physik- und KI-Berechnung enthalten.
 
danko71 schrieb:
Ich könnte mir eher spezielle Gaming Multiocore-CPUs vorstellen die neben 2-4 normalen Cores auch noch einen Coprozessor für Physik- und KI-Berechnung enthalten.

Das läuft doch letztendlich aufs Gleiche hinaus. Irgendwo ne Extrarecheneinheit für die Physikberechnung zu verbauen. Denn billiger werden die CPUs damit auch nicht, obwohl ich mir vorstellen könnte, das die Coprozessorlösung deutlich performanter ist.

Was das Full-HD-Gaming angeht finde ich es schade, dass heutzutage Grafik alles ist und Innovation, Realismus und Gameplay zur Nebensache verkommen.
 
@36 HD Gaming nutzt doch niemand wirklich, des ist doch nur marketing von Nvidia und ATI damit sie ihre High-end gpus auch verkaufen, da man für einen normalen TFT garkeine high-end grafikkarte mehr braucht.

achja schaut euch mal diese video an:
ftp://videos@ageia.com:goodstuff@66.220.3.57/cfr_hd.zip

Wenn es mal ne steuerung für so ein spiel geben würde könnte die physx echt sinnvoll sein, da die Physiklösungen von ATI und Nvidia ja angeblich solche physik nicht können. aber ich würde auch fast was wetten dass wenn es perfekt programmiert wäre auch mit einer stinknormalen cpu zusammen mit ner stinknormalen graka funktionieren würde
 
Mir wär wurscht ob pci oder pci-e, aber es bringt ja bisher eh nix. Wenn der Großteil der Spiele sowas unterstützen würde, dann könnte man anfangen drüber nachzudenken.
 
nVidia hat mit dem G80 angekündigt Physikberechnungen zu ermöglichen. Ati hat angekündigt, die GPU für beliebige Anwendungen zu öffnen (meint eine dafür verbesserte API rauszubringen), was Physik einschließt (nV wird da wohl nachziehen).

Spätestens mit der Folgegeneration des G80 und des R600 gibt es dann die Möglichleit die GPU als allgemeine "Berechnungseinheit" zu benutzen und beliebig aufzuteilen.

Wozu soll man dann noch CoProzessoren oder AddOn-Karten benutzen. Wenn man mehr FP Leistung braucht, steckt man sich dann noch eine "GPU" rein und fertig.
 
Physikprozessor schön und gut, aber wenn man beispielsweise die Reviews von 3dcenter.de liest, muss man bezweifeln, dass Ageia tatsächlich ein Produkt entwickelt hat, das die CPU de facto entlastet.

Mir drängt sich eher der Eindruck auf, dass die Ansprüche an CPU und GPU gleichermassen steigen, sodass man im Endeffekt besser daran tut, in diese beiden Komponenten zu investieren. Im Moment geht alles in Richtung Mehrkernprozessoren, ein Thema das wohl auch demnächst für die Grafikchiphersteller interessant wird, sodass dann auch genug Leistung für Physikberechnungen vorhanden ist.

Ausserdem hat die Physik immer eine Auswirkung auf die Darstellung, womit es naheliegend ist, diese beiden Komponenten miteinander zu kombinieren. Was auch immer uns in den kommenden Monaten erwartet, eine separate Physikkarte stellt in meinen Augen die schlechteste aller Lösungen dar.

Man denke nur daran, dass separate 3D-Beschleuniger ziemlich rasch in die eigentliche Grafikkarte gewandert sind. Ich gehe davon aus, dass dies auch hier geschehen wird und ATi bzw. nVidia demnächst entsprechende Lösungen anbieten.
 
Nur mal so als Anmerkung für alle, die hier immer mit Multicoreprozessoren kommen: Wisst ihr wieviele aktuelle Prozessoren ihr parallel schalten müsst, damit HL² genauso flüssig im Software-Rendering-Modus läuft, wie mit einer Aktuellen Grafikkarte? Ich nicht, aber es dürften mehr als nur 4 oder 8 sein. Wir sprechen hier von spezialiesierten Prozessoren, die bei identischer Taktfrequenz immer mehr in ihrem speziellen Gebiet leisten als die universalen CPUs.

(wenn ich falsch liege bitte berichtigen)
 
@42 Honkitonk
genau deswegen bin Physx recht offen gegenüber, da die mit weniger Transistoren also auch weniger Strom/Wärme genauso gute Ergebnisse liefern sollte wie eine CPU oder GPU und auch weniger kosten, da die Die Fläche kleiner bleiben kann.
 
Zurück
Oben