• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Anschaulicher PhysX-Vergleich in Dark Void

Für Spiele dürfte DirectCompute wesentlich wahrscheinlicher sein. Und auch mit DirectCompute muss erst mal eine Physikengine her, die die Berechnungen anstellen kann.

Ich tippe ja darauf, dass es mal wieder so ablaufen wird:
- Havok kommt endlich mit seinem eigenen GPU Client raus, (momentan noch OpenCL, die DirectCompute Variante wird aber wohl kaum lang auf sich warten lassen) der natürlich auf allen Grafikkarten funktioniert.
- Der Client wird ähnlich wie Havok für CPU recht gut skalieren und auch auf schwächerer Hardware ansehnliche Ergebnisse liefern. (Kann man hier recht gut sehen. KLICK )
- Da der Client auf allen Karten ab DX10 läuft, werden die Entwickler praktisch nur noch Havok benutzen, da sie entweder:
a) Früher schon Havok CPU benutzt haben und damit Havok gewohnt sind.
oder b) einfach einen viel größeren Marktanteil abdecken.

Das Ergebnis ist in beiden Fällen das gleiche:
Durch die dämliche Marketingstrategie von Nvidia, dass Physx-GPU nur was für Leet-Haxxors mit mehreren Nvidia Karten ist, wird die Engine über kurz oder lang in der Versenkung verschwinden.
Und bei der Performance die die Engine momentan bietet, kann ich das auch nicht wirklich schade finden.
Sorry aber wenn ich für ein paar Physikeffekte noch einmal eine 160- 200 € teure Karte einbauen soll, damit es überhaupt funktioniert und selbst dann noch keine stabilen Frameraten möglich sind,dann kann mir die Engine gestohlen bleiben.
Das sieht man auch gut in noxons Arkham Asylum Video. Bei der Scarecrow Szene kann ich eigentlich nur eines erkennen. Das Video mit Physx fängt übelst an zu ruckeln (wenn ichs bei nem Video schon seh, dann bedeutet das fps <25) während die Physx Off Lösung völlig stabil vor sich hin läuft.
Und das dann noch in so einer sinnlosen Szene. Die ganzen Felsbrocken hätte man völlig problemlos noch wesentlich realistischer vorberechnen können, da die Bewegungen von Scarecrow sowieso gescriptet sind und immer gleich ablaufen.
 
Zuletzt bearbeitet:
So lang es keinen Standart gibt, geht mir der Physikkram ganz ehrlich am Arsch vorbei.

Ich glaube auch daran, dass es bald einen Physikstandart geben wird. Deswegen ist Physix für mich eher ein Antikaufkriterium.

Und so wie ich das Verstanden habe implementieren die Spieleprogramierer nicht mal selber die Effekte, sondern bekommen ein paar Physixprogrammierer und ein paar Milliönchen geschickt. Ohne diesen Support der nichts kostet sondern sogar noch Geld mitbringt, würde doch kein Entwickler freiwillig Physix implementieren.

Die Spieleentwickler sind doch selber mit Havoc grossgeworden. Physix da wo es implementiert ist, ist doch kein einziges Mal aufgrund von eigeninitiative miteinprogramiert worden, sondern immer nur in Verbindung mit Moneymoneymoney.
 
Ihr versteht doch wohl alle den finaziellen Aspekt den sich hier die Entwickler erhoffen.
Genau wie bei Crysis .... oh durschnitts Shooter, aber man braucht highend Hardware für die Highend Grafik ... und schon wurde das Spiel übels gekauft.

Selbe überlegung hier durchschnitts shooter, aber mit highend physiks... naja ich hoffe der erfolg wird ausbleiben.

Ausserdem habe ich manchmal dass gefühl, dass es den entwickerln der Hardware irgendwie darum geht, dass die Hardware möglichst schnell veraltet, damit man seine neue Hardware auch überall loswird. Dass erreicht man nur mit spielen und Anwendungen, die von der Leistung her Suboptimal gecodet werden.

Sie spekulieren einfach auf die Dummheit der Käufer... und wie so oft funktioniert das auch leider.

Ich sehe die Hardware industrie momentan in einer ähnlichen situation wie die Autoindustrie. Früher wurden die Autos so langlebig gebaut, dass man 20 Jahre keine neuen Autos brauchte, weil sie einfach robuster gebaut wurden... doch jetzt sind sie mit absicht gerade so schlecht gebaut, dass sie halt von zeit zu zeit kaputt gehen.

Dass selbe Phänomen haben wir momentan mit der Hardware. Dx 10 dx 10.1 dx 11 bringt alles momentan noch kaum vorteile und trotzdem kommen auf einmal generation nach generation, die immer nen halbgares feature drauf haben um wieder nen Kaufgrund zu bieten. wenn man mit seiner 8800 gtx rumfährt müsste man eigentlich noch genug rechenleistung haben ... , aber ne dx 11 is ja der kaufgrund. Und was meine Behauptung meiner ansicht nach noch untermauert, ist dass es absprachen zwischen software und hardware anbieten geben muss. oder warum bekommt vista keine dx 11 unterstützung ... nur aus einem Grund neue software muss im bündel gekauft werden mit neuer hardware...

ich bin mir hundertprozentig sicher, dass selbst windows xp dx 11 fähig wäre. nur aus finazieller hinsicht hat es vorteile diesen support nicht bereit zu stellen.

Ich wette sobald die neue Nvidia karte da is heisst es wieder ! Kauft die neue Nvidia und ihr werdet keine 2 karten mehr brauchen um Dark Void in High Physix zu daddeln! ergo kaufgrund usw. Aber dass is halt der Handlungsansatz von firmen. Um so kurzlebiger ein Produkt um so eher ist es im It bereich zu gebrauchen.

greetz LaZz
 
Also PhysX hin oder her,sicher sieht es mit besser aus ob man soviel Hardware haben muß weiß ich nicht. Das Spiel selbst ist ein Witz, die Steuerung geht mal garnicht mit Maus/Tastatur.
 
Bin seit 4 Wochen mit mir am kämpfen, ob ich mir ne HD 4890 hole
oder ne GTX260/275.

Das hier hat mir die Entscheidung sehr erleichtert.
Bleibe ich doch bei ATI, da bin ich bis jetzt immer gut gefahren.

Richtig überzeugt war ich von PhysX eh noch nie. Zur Darstellung von Rauch
und nen paar mehr Partikeln z.B. bei Einschußlöchern brauchts das nicht.

Apropos Rauch: der Rauch bei Race Driver Grid reicht mir voll und ganz
(sieht meiner Meinung nach klasse aus).

Apropos Partikel: Spielt mal das gute alte FEAR; da hats damals schon den Mörtel
aus der Wand gerissen bei Schüssen, was absolut geil aussah, auch ohne PhysX-GPU

PhysX: unnötiger Marketing-Gag, der nur noch mehr Kohle in Nvidias Kasse spülen soll

Ciao
 
btw.

Mir fällt grade UT3 ein, da konnte man auch PhysX Beschleunigung einschalten
(damals noch Ageia)
Da waren dann keine großen "Mehreffekte" zu bewundern aber Physiklastigere Abläufe.

Dass Dark Void, ohne PhysX, so "beschnitten" daherkommt, ist (IMHO) eine Frechheit
und leider könnte es in Zukunft weiter in so eine Richtung gehen.

DAS ist etwas, was mich viel trauriger stimmt.
 
Für die paar Effekte einen Großteil der Performance opfern würd ich nicht einsehen.

Davon mal abgesehen stören die umherfliegenden Partikel und der Rauch ohnehin nur die Sicht.
Für ne (Tech-) Demo hübsch anzusehen, aber spielbar?

Naja, soll jeder für sich selbst entscheiden ;)
 
Konti schrieb:
NVidia kann nichts dafür, wenn der Spiele-Hersteller PhysX so lappig implementiert. ;)

Ich bin der Ansicht, dass die meisten dieser Effekte gar nicht vom Entwickler stammen, sondern direkt aus der Feder des NVidia-"Supports"..

Das merkt man auch daran, dass ohne PhysX auf die meisten Effekte ganz verzichtet wurde, wobei man die ebensogut durch vorgefertigte Animationen hätte herstellen können.

Wer Profitiert davon? Der Entwickler ist gut beraten sein Spiel auf allen Systemen so gut wie möglich aussehen zu lassen, weil's dann eher gekauft wird. NVidia hat daran kein Interesse - Du siehst, was ich meine..
 
Ansonsten ist die Garfik ja eher mau. Ich glaub die haben wie d-Raven-b sagt die Effekte einfach 1:1 reinkopiert. Das hät man locker auch ohne Physx machen können.
 
ein lächerlicher physx vorteil.
beim rauch interessiert es mich zB nicht mal kann unter umständen sager eher nerven.
und bei der partikel bildung sorry aber einige partikel hätte auch die version ohne physx problemlos bewältigen können.
da find ich batman immer noch eher die bessere physx refferenz als dark void.
 
LaZz schrieb:
oder warum bekommt vista keine dx 11 unterstützung ... nur aus einem Grund neue software muss im bündel gekauft werden mit neuer hardware...

Warum muss man das eigentlich immer wieder sagen? :rolleyes:
Nur weil es bei XP -> Vista so war, ist das nicht wieder so.
Vista hat DirectX 11 seit dem Release von Windows 7!

Mit der Einführung von Vista wurde das Treibermodell brutal verändert, weshalb die Exklusivität für Vista zumindest teilweise gerechtfertigt war. Sieht man ja schön daran, dass es bis heute keinen brauchbaren Hack für DX10 auf XP gibt.
 
c80 schrieb:
Die Ageia-Karten waren aber teuer. So ist es umsonst. ATi-Nutzer haben halt Pech gehabt. Egal, es wird ja niemand gezwungen ATi zu kaufen.

"Umsonst" ist es ganz sicher nicht, NVidia lässt sich das vom Kunden bezahlen.

Gewiss nicht mit horrenden Preisen aber verschenken tun sie PhysX ganz sicher nicht
(dann können sie es gleich OpenSource machen ;))

Wie hier auch zu lesen ist, benötigt man eine GTX260 oder besser,
für eine optimale darstellung.

Dort sind dann die Kosten für die Extra Karte wieder vorhanden!...
 
Na toll, ne Techdemo zum Vollpreis, Effekte der Effekte willen - Gameplay, Story und Tiefgang = NULL.
Da schon lieber ordentliche Games, in die sukzessiv von Generation zu Generation mehr Physik einfließt, dafür aber auch was bieten fürs Geld.
 
das einzige was man zu dark void noch sagen kann (auch wenn ich auf nen PC Games Test nicht wirklich viel gebe) Klick mich
 
Sennox schrieb:
"Umsonst" ist es ganz sicher nicht
Das letzte PhysX-Spiel was ich gezockt hab war Batman AA. Meine GTX260 reichte dafür locker aus. Hat mich also nix extra gekostet. Die Ageia-Karte hätte extra gekostet. Und sobald der Fermi draußen ist kann ich die "alte" GTX260 weiter nutzen. Sonst würde sie in der Ecke liegen und verstaube. Also wieder keine zusätzlichen Kosten. So meinte ich das.
 
MichaelMros schrieb:
Ich will mal behaupten, dass eine 8800 GTS (640) doch noch einen Tick schneller als eine Karte der 9600er-Serie ist...

Hat damit nix zu tun. Die Chips der 9000er Reihe sind was CUDA angeht wohl effektiver. Es gab im Netz mal einen Benchmark, der das aufzeigt.
 
Leon schrieb:
Hat damit nix zu tun. Die Chips der 9000er Reihe sind was CUDA angeht wohl effektiver. Es gab im Netz mal einen Benchmark, der das aufzeigt.
der g80 und der g94 schenken sich in cuda mal gar nix. die 8800gts 640 sollte da um einiges performanter sein.
 
Laut Wikipedia hat die GTS640 eine Rechenleistung von 345,6 GFlops und die Geforce 9600 GT hat 312 GFlops
 
dgschrei schrieb:
Ich tippe ja darauf, dass es mal wieder so ablaufen wird:
- Havok kommt endlich mit seinem eigenen GPU Client raus, (momentan noch OpenCL, die DirectCompute Variante wird aber wohl kaum lang auf sich warten lassen) der natürlich auf allen Grafikkarten funktioniert.
- Der Client wird ähnlich wie Havok für CPU recht gut skalieren und auch auf schwächerer Hardware ansehnliche Ergebnisse liefern. (Kann man hier recht gut sehen. KLICK )
- Da der Client auf allen Karten ab DX10 läuft, werden die Entwickler praktisch nur noch Havok benutzen, da sie entweder:
a) Früher schon Havok CPU benutzt haben und damit Havok gewohnt sind.
oder b) einfach einen viel größeren Marktanteil abdecken.

Das Ergebnis ist in beiden Fällen das gleiche:
Durch die dämliche Marketingstrategie von Nvidia, dass Physx-GPU nur was für Leet-Haxxors mit mehreren Nvidia Karten ist, wird die Engine über kurz oder lang in der Versenkung verschwinden.
Nochmal:
Daß GPU-PhysX bislang so schlecht umgesetzt wurde, ist nicht NVidias Schuld. Ich wette, die wünschen sich, daß ein Hersteller da mal was vernünftigeres präsentieren würde ... käme denen ja auch zugute.
Und soweit ich weiß, war NVidia dazu bereit, PhysX auch auf ATI-Karten lauffähig zu machen, aber ATI kochte lieber sein eigenes Süppchen ...
Jetzt wird der nächste wahrscheinlich gleich wieder sagen "Ja, weil NVidia ganz viel Gebühren dafür hätte haben wollen, etc.". Ja kann sein ... ein offizielles Statement seitens ATI oder NVidia gab's dazu soweit ich weiß nicht, so daß wir hier letztendlich nur raten können, und nicht sicher sagen können, welches der beiden Unternehmen den schwarzen Peter hat.

Allerdings stimme ich dir zu:
Interessant wird's erst, wenn's etwas gibt, was über OpenCL oder DX11 läuft und somit auf Karten beider Hersteller. Ob das zuerst mit PhysX oder mit Havok der Fall sein wird, weiß man heute noch nicht. Ich persönlich hoffe allerdings auf eine ganz neue Engine.
Ich denke PhysX sowie Havok sind mittlerweile veraltet ... oder berücksichtigt wenigstens einer der Engines z.B. so Dinge wie Luftwiderstand?

Auch würde ich mir wünschen, daß in Sachen Sound mal was passiert. Zum Beispiel könnte man mit Hilfe von Faltung und mehreren vorgerenderten Impuls Antworten halbwegs realistische Hall-Umgebungen schaffen. Daß sich GPUs sehr gut für die Berechnung solcher Sachen eignen, weiß ich aus dem Pro-Audio-Bereich (wobei man da zugegebenermaßen im Moment noch recht hohe Latenzen hat). Was ein halbwegs glaubwürdiger Hall an Atmosphäre bringt, kann man ja heute schon vereinzelt in Games sehen ... wird imo aber noch viel zu selten und viel zu wenig genutzt.
 
Zuletzt bearbeitet:
Zurück
Oben