News Ageia Benchmark zeigt Power von PhysX

@m-tree
Selbst wenn ein Quadcore so schnell wäre wie die Physxkarte, Quadcore gibt es noch nicht, wird zur Einführung das 4-fache kosten und 3 mal so viel Strom brauchen. Außerdem hat die CPU noch andere Dinge zu tun. Stell dir mal vor, die gesamte durch einen Physikchip frei gewordenen Ressourcen werden für die KI benutzt. Das wäre schon ein Riesensprung in der KI Qualität.

Übrigens ist Physik sehr wohl parallelisierbar, der Physxchip besteht aus einer Menge Kernen siehe hier. Anders wäre es auch gar nicht möglich, als parallel.
 
Nunja ... bisher war es so, dass Rechner ähnlicher Zeiteopchen alle grob gesehen die selben Komponenten hatten - nur eben in verschiedener AUsführung, mit verschiedener Leistung. Demnach kann man die Spiele eben auch besser oder schlechter spielen. Nun kommt aber eine Komponente hinzu, die optional ist und das Vorhandensein dieser dann auch Voraussetzung für die Darstellung von gewissen Elementen im Spiel wird. Und das ist es, was mich an der Sache stört.

Ansonsten hab ich mich mit der PhysX noch nicht so detailiert beschäftigt - hatte nur mal vor geraumer Zeit die Ankündigung in der c't gelesen, dass so eine Karte kommt.

Ich denke nicht, dass man - wenn es denn so umgesetzt wird - die Physik oder KI Berechnung auf mehrere Kerne aufteilen wird. Zumindest nicht im jetzigen Zeitalter der "gerade" mal 2 oder 4 Kerne auf einem Würfel.

Ich hatte nur die Vorstellung in meinem Kopf, dass wenn die Ageia PhysX viel effizienter arbeitet, dafür aber eine aktuelle CPU um einiges mehr gesamte Rechenpower besitzt, es letztendlich aufs ähnliche Ergebnis hinausläuft. Und auf einer CPU kann man die Physik Berechnung noch optimieren .. nicht so weit wie auf dem PhysX Chip, weil die Hardware ja nun keine untergeordnete Rolle spielt, aber dennoch so weit, dass ein ordentliches Ergebnis rauskommt. Das nahm ich bisher zumindest an - und anhand Alan Wake wurde das ja auch schon demonstriert.

Inwieweit das tatsächlich geht scheinst du besser zu wissen und da gebe ich auch zu, dass ich zu schlecht informiert bin. Warum mir die PhysX dennoch nicht zusagt hab ich bereits gesagt, ein Absatz dazu aber noch:

Gegen spezielle Physik Recheneinheiten sag ich garnix. Nur das aktuelle Monopol seitens Ageia, das anscheinend die einzige Lösung, auf die aktuell anscheinend alle setzen, zu sein scheint, ist mir irgendwie ein Dorn im Auge. Wenn andere Hersteller hinzu kommen oder einfach auf Grafikkarten solche Prozessoren Platz finden oder in der GPU oder auf Multi GPU Karten integriert werden sähe ich das garnicht mal so eng. Aber warten wir einfach ab ...
 
@ m_tree hast du meinen Post übersehen oder warst du zu faul dir alles durchzulesen?

Eine CPU kann für sowas genauso wenig optimiert werden wie auf Grafikberechnungen.
Auf dem Alan Wake Video sind kaum physikalische Berechnungen nötig mal abgesehen von dem Tornardo.
Wenn der Physikbeschleuniger die Berechnungen übernehmen würde könnte der Tornardo noch viel krasser Aussehen (denn mal ehrlich die Bewegung der herumfliegenden Gegenstände sind billig) und der ganze Core könnte stattdessen sinnvoller genutzt werden! Für sowas braucht man keinen extra Core zumal es genug Hintergrunganwendungen gibt.
Außerdem kann keine CU annähernde Ergebnisse wie eine PPU erreichen, auch logisch.

Wenn du dir meinen Post durchliest ist die Sache mit den Grafikkartren auch gelöst denn keine rationaldenkender Mensch würde sich mit so etwas begnügen eine GPU kann KEINE Grafik und Physik parrallel!
 
Kann MountWalker nurzustimmen.

@m_tree

Vielleicht hast du meinen Post übersehen oder wolltest einfach nicht alles durchlesen.
Eine CPU kannst du für Physikberechungen genauso wenig optimieren wie für Grafik auch.

Was zu den Grafikkarten zu halten ist, hab ich schon in meinem vorherigen Post beschrieben.
Bei der CPU Variante muss man jedoch auch ein Core frei haben damit das ganze funktioniert und der könnte stattdessen andere Aufgaben übernehmen, mal ganz davon abgesehen, dass eine PPU diese Berechnungen sowieso sehr viel effizienter durchführen kann.
 
Ja, ich hab geantwortet ohne mir alle Kommentare durchzulesen. Schlimm?

Ich will ja nicht auf mein Recht pochen oder so .. aber ich sagte auch nicht nur, dass die PPU in die GPU integriert werden könnte (ja, das ist wohl Schwachsinn), aber die PPU separat auf der Grafikkarte könnte mehr Sinn machen.

Ihr habt recht. Aber worauf ich eigentlich hinaus wollte hab ich auch schon gesagt. Nämlich dass mich die Lösung mit der Karte nicht so begeistern kann. Obwohl das noch geht - nur das Ageia Monopol ist wirklich besch..eiden.
 
Ein Monopol hat Ageia nicht, es gibt ja noch die CPU und GPU Hersteller. Wenn Ageia keine ordentlichen Produkte herausbringt, dann gäbe es ja noch alternativen. Ich denke in den nächsten Jahren wird Physx selten Pflicht werden. Ich denke die Spielrelevante Physik wird von der CPU berechnet. Mit der Karte entlastet man dann die CPU und hat zusätzliche einige optische Effekte + einige kleinere Verbesserungen in der Genauigkeit oder ähnliches.
 
BigChiller schrieb:
Bei der CPU Variante muss man jedoch auch ein Core frei haben damit das ganze funktioniert und der könnte stattdessen andere Aufgaben übernehmen.
Jup. Zum Beispiel die Objekte verwalten, die die Physikkarte berechnet.

Da beißt sich die Katze nämlich selbst in den Schwanz, wenn man die Physik auf der CPU berechnen will. Natürlich will man dann auch mehr Objekte haben als bisher. Das bedeutet aber wieder eine zusätzliche Belastung für die CPU.

Im reinen Softwaremodus wird sie also mit jedem zusätzlichen Objekt gleich doppelt belastet. Zum einen mit der Physikberechnung und dann noch mit dessen Verwaltung.

Wenn man 1000 anstatt 500 Objekte berechnet bekommt die CPU eh viel mehr zu tun und da ist es ganz sinnvoll die Physik auszulagern.


BTW: Hier ist eine kleine Deformations-Demo.
Genau da sehe ich die Vorteile einer leistungsfähigen Physikengine. Nicht, dass sie tausende von Objekten darstellen kann, sondern dass die Objekte ein realistischeres Verhalten haben. Die sollen also realistisch zerbrechen oder sich verformen. Dann möchte ich auch noch Rauch und Stoffe sehen. Objektpenetrationen bei denen Objekte ineinander eindringen gibt es soweit ich weiß bisher auch nicht.

Es geht also nicht um die reine Objektanzahl, sondern um eine ganz andere Art der Objektdarstellung.
 
noxon schrieb:
Jup. Zum Beispiel die Objekte verwalten, die die Physikkarte berechnet.

Da beißt sich die Katze nämlich selbst in den Schwanz, wenn man die Physik auf der CPU berechnen will. Natürlich will man dann auch mehr Objekte haben als bisher. Das bedeutet aber wieder eine zusätzliche Belastung für die CPU.

Im reinen Softwaremodus wird sie also mit jedem zusätzlichen Objekt gleich doppelt belastet. Zum einen mit der Physikberechnung und dann noch mit dessen Verwaltung.

Wenn man 1000 anstatt 500 Objekte berechnet bekommt die CPU eh viel mehr zu tun und da ist es ganz sinnvoll die Physik auszulagern.


BTW: Hier ist eine kleine Deformations-Demo.
Genau da sehe ich die Vorteile einer leistungsfähigen Physikengine. Nicht, dass sie tausende von Objekten darstellen kann, sondern dass die Objekte ein realistischeres Verhalten haben. Die sollen also realistisch zerbrechen oder sich verformen. Dann möchte ich auch noch Rauch und Stoffe sehen. Objektpenetrationen bei denen Objekte ineinander eindringen gibt es soweit ich weiß bisher auch nicht.

Es geht also nicht um die reine Objektanzahl, sondern um eine ganz andere Art der Objektdarstellung.

Ganz genau, so sieht das dann aus.
Ein Quadcore wäre für die PhysX-Karte genial um die physikalischen Objekte für den Rest des Systems zu verwalten.
Deswegen versteh ich auch nicht warum Ageia nicht mal ordentlich Treiber programmiert, denn bis jetzt kennt dieser nur Singlecore. Die PhysX-Demos dürften dann nämlich auf Dualcores/Quadcores besser laufen, ist ja auch kein Wunder dass es sonst ruckelt wie Sau, wird ja nur 1 Kern (oder 2Kerne zu 50%) belastet obwohl auch noch andere Sachen von der CPU berechnet werden müssen, deswegen geht die Framerate auch derbe in die Knie.
Ich hoffe hier sehen sich die Leute auch mal die Videos der PhysX an. Das Video mit der Flüssigkeit beeindruckt mich immer wieder auf's Neue und das ist erst der Anfang, da kommt noch viel mehr auf uns zu, zBsp. das Verhalten von Feuer und Säuren.
 
m_tree schrieb:
Nunja ... bisher war es so, dass Rechner ähnlicher Zeiteopchen alle grob gesehen die selben Komponenten hatten - nur eben in verschiedener AUsführung, mit verschiedener Leistung. [...] Nun kommt aber eine Komponente hinzu ...
Du unterschlägst hier die im Thread bereits oft genannten 3D-Grafik-Chips, die eben Mitte der 1990er auch hinzu kamen. ;)
 
Zuletzt bearbeitet:
vor kurzen gabs doch eine schöne demo von der idf zum thema quadcore und physik in spielen. ich fand alan wake schon beeindruckend genug. derartiges wird auf einem dualcore rechner halt einfach nur langsamer laufen und nicht einfach garnicht. spiele, die ne physikkarte zwingend vorraussetzen werden es gegen in software implementierte multicorelösungen zunächst mal seeehr seeehr schwer haben. man muss ja auch mal sehen, dass es die physikkarten ja nun schon eine weile gibt und bisher ist da NICHTS aber auch GARNICHTS, das zum entsprechenden "boah ey" effekt führt.

ageia ist einfach eine zu kleine butze, als das sie die technik selbst entsprechend in den markt drücken könnten. sie sind auf gedeih und verderb der arbeit der spielehersteller ausgeliefert. intel kann da mit ein paar scheinen und reichlich know-how-hilfe bei ein paar spieleherstellern wesentlich mehr erreichen. dass eine quadcore-lösung weder billiger noch technisch überlegen ist, spielt für das endergebnis eigentlich keine rolle. intel und amd haben einfach das bessere marketing und mehr kapital. ich denke, eine physikengine auf basis von multicoresystemen hat alleine aus diesem grund (intel und amd wollen ihre neuentwicklungen ja schmackhaft machen - also müssen killerapplikationen her) - sowie der grösseren kompabilität (läuft auch ohne spezielle technik - dann halt nur sehr langsam) - mehr zukunft. auch wenn eine gute zusatzkarte (ob nun von ageia oder sonstwem) für physik der qualitativ und performancetechnisch bessere weg wäre.

aber evtl irre ich mich ja auch. soll ja auch schon ab und zu (wenngleich selten) vorgekommen sein, dass sich die bessere technik durchsetzt.
 
Die Physikengine von Ageia setzt eigentlich nicht zwingend die Physxkarte vorraus, das wird nur von den Spieleherstellern bestimmt.
Ich denke schon das es sich weit verbreitet, das tolle an der Engine ist ja, das sie kostenlos ist, wenn die Karte unterstützt wird. Wenns nur Software ist, kostet die Engine einige zehntausender, daher wird sich die Engine wahrscheinlich unter den kleinen Spieleschmieden verbreiten.
Das mit dem Kapital und Marketing stimmt aber, man sieht ja was so passiert ist, hier eine misslunge Demo, da ein kleiner Benchmark, aber nichts richtig gutes.
 
alex22 schrieb:
daher wird sich die Engine wahrscheinlich unter den kleinen Spieleschmieden verbreiten.
Jup. Ich habe schon so einer Art Marble Madness mit PhysX unterstützung gespielt. Allerdings rein im Softwaremodus. Das war glaube ich auch nur ein einzelner Hobbyprogrammierer.

Abr auch solche kleineren Softwarefirmen wie FAKT verwenden die Engine für den nächsten Crazy Machines Teil.

Und ob wir im Schachprogramm Fritz eine Physikengine sehen würden, wenn die etwas kosten würde, dass bezweifle ich auch.
 
Mir wäre es lieber wenn die Leute mal DualCore supporten.
Ein zweiten Core@4300 Mhz der brach liegt dafür aber so eine Karte?
Niemals.
 
Die meisten neuen Spiele werden Dualcore unterstützen, auch gibt es schon einige, die Dualcore bereits heute unterstützen. Also Dualcore liegt nicht unbedingt brach.
 
@ #46
story of a year schrieb:
@ 43
Sorry aber das ganze gelaber der selbsterklärten Experten die PhysX schlecht reden kotzt mich einfach nur noch an. Wie kann man einmal großkotzig erzählen, dass die Industrie uns nur >einreden< will das Physik Beschleuniger nötig sind und das doch aber totaler Quatsch wäre... und andererseits beharrt man dann aber auf den 120 FPS... weil das brauch man ja unbedingt. Und von den 120FPS darf ja nur nichts verloren gehen, weil dann kann man ja nicht mehr angeben... und es ist sofort so abgrundtief SCHLEEEECHT. Schlimmes Kopfschütteln ruft das bei mir hervor. Läute, erstmal aufklären, dann überlegen... und am besten nicht schreiben.

Bevor du auf etwas losschimpft, was andere geschrieben haben, solltest dir erst mal genau überlegen, was derjenige überhaupt geschrieben hat.

Meine Aussage bezogt sich darauf, dass dieser Bentchmark von der gleichen Firma stammt wie die Karte selbst. Damit ist der Bentchmark nicht unabhängig und somit nicht objektiv. Es lässt sich keine verlässliche Aussage über den Nutzen der Karte ziehen. Unabhängige Tester, wie Computerbase, müssen sich mit der Karte beschäftigen und Testberichte veröffentlichen. Ich habe also weder etwas positives noch etwas negatives von der Karte behauptet.
 
Zurück
Oben