News Was passiert mit PhysX, wenn DX11/OpenCL da sind?

@moko: naja das sagt er ja grade in dem artikel: weil weder open cl noch compute shader physik-bibliotheken sind oder beinhalten. natürlich können andere produkte ala physx und havok auftauchen und diese verdrängen. diese anderen produkte können auch open cl und compute shading unterstützen. aber einen direkten zusammenhang zwischen physx und open cl bzw compute shader gibt es nicht. und genau das glauben die meisten und damit räumt wolfgang auf.
im grunde können open cl und compute shader sogar zur anwendung von physx dienen. und zumindest bei compute shader ist das sehr wahrscheinlich. auch open cl dürfte von nv imho über kurz oder lang ins boot genommen werden, um den physx-standart gegenüber konkurenten (vor allem havok) durchsetzen zu können. natürlich würde nv es lieber sehn, wenn im pc bereich cuda zur umsetzung von physx genutzt würde. aber das entscheiden halt die mitbewerber (ati, s3, intel).
 
Zuletzt bearbeitet:
AffenJack schrieb:
Allein schon die tatsache, dass physx auf cpu bei haufenweise spielen vorkommt reicht um sich das logisch zu überlegen, wenns nicht gut optimiert wäre, würden die leute havoc nutzen
Da ich mich nicht mit dem Thema auseinandersetze (hab keine nVidia bzw. PPU-Karte) kann ich nicht sagen ob es stimmt oder nicht, aber nur aus der Logik heraus einen Fakt daraus zu machen?

Wozu soll da ein Konjuktiv hin, vll verschwindet physx nach irgendner zeit aufgrund von konkurenz, aber nvidia wirds sicher nicht einfach so vom markt nehmen. Soll man dann bei jeder news nen konjuktiv machen, z.b. vll erscheint win7, falls ms bis dahin nicht aufgrund von konkurenz vom markt verschwindet?
Dass PhysX verschwindet ist doch etwas wahrscheinlich als dass MS verschwindet. Des weiteren ist ein Unterschied, ob es aus Presseaussendungen kommt, oder über das Thema phillosophiert wird.

Ja, welcher gravierende unterschied denn? DX11 Programmierer werden opencl kaum nutzen, wozu soll man schließlich zusätzlichen aufwand betreiben wenns die compute-shader genauso können. Die compute-shader müssten schon deutlich schlechter sein, damit die leute zu opencl abwandern. Und von Opengl3.0 hört man ja auch nich viel gutes, das wird opencl nicht groß helfen.
aus dem Artikel:
Zwar kann man mit OpenCL sämtliche OpenCL-kompatiblen Rechenkerne ansprechen, man benötigt jedoch immer noch eine Physik-Bibliothek, die weder OpenCL, noch DirectX 11 mitbringen. Es wird von Microsoft auch kein standardisiertes Direct Physics geben (zumindest vorerst), was von einigen gerne behauptet wird.
 
Warum ist das jetzt schon ein Thema? Es kommen doch eh nur noch Konsolenports raus. Also werden die nächsten Konsolen die Marschrichtung vorgeben. DX11 und OpenCL sind in den nächsten 2-3 Jahren Null Thema.
 
@Slipknot79
Dann ist es ja schön dumm in zwei GTX280 Geld zu investieren ;) (nicht so ernst nehmen)

Das Themea Konsolen wird viel zu stark bewertet, nur weil irgendwelche Firmen nicht ganz mitbekommen haben das auf Konsolen genauso stark kopiert wird wie auf dem PC. Vielleicht sollten sie mal mehr ein Hauptaugenmerk auf "fehlerfreie" Software setzen, anstatt den ehrlichen Kunden immer wieder mit neuen Nervereien zu vergraulen. Wenn ich bedenke was die Herrschaften für Kopierschutzsysteme rausschmeißen und dann wird vor dem Release dieser umgangen... :rolleyes:
 
TheK schrieb:
Wozu auch? Alles, was keine Kollsionen erzeugen kann, braucht man nicht synchronisieren. Wo das Blatt nun beim einzelnen gerade herumfliegt, ist definitiv nicht spielrelevant. Schon heute wird die Biegung der Bäume oder die genaue Position von Bewegungsanimationen auch nicht synchronisiert. Von wirklichen Partikeln (Blatt, Regentropfen, Leichenteile, Nebenschwaden) gar nicht zu reden... Nur die einzelnen Steine einer explodierenden Mauer müssen natürlich halbwegs (!) synchronisiert werden; so sie selbst Schaden anrichten können. Auch hier dürfte es aber ziemlich wurscht sein, ob das Ding nun für den Schützen scheinbar am Oberarm landet und den Schaden an der Birne macht - wichtig ist nur die Frage "getroffen oder nicht?".

Seh ich nicht so. die physik engine soll ja möglichst realistische level erzeugen d.h. auch zerstörbares terrain.
Also wenn ich mit nem raketenwerfer jetzt n haus zerschieße sollte es schon überall gleich zerbrechen und hier kommt wieder die physik engine die dem programmier die arbeit abnehmen soll jedes trümmerstück einzeln zu erstellen was aber wiederum zu zufälligen trümmern führt. Das alles kann z.B gut von der Graka übernommen werden aber eben nur auf dem einen rechner weil jeder weitere rechner zu nem anderen ergebniss kommt (sofern die physik engine einigermaßen was taugt).

Was mich zu meiner eigentlichen aussage bringt die ganzen physik spielerein sind zwar schön im single player werden aber in multiplayer spielen noch lange sehr reduziert bleiben weils einfach nicht zu syncronisieren ist.

Gutes beispiel HL2 da ist jedes zerstörbares bzw bewegliches teil ein objekt wie die spieler auch. Deswegen beschränkt sich das dort auf einige 1000 objekte pro level mehr geht einfach schlecht weil man die daten kaum übertragen kann. und dafür braucht man sicher keine GPU beschleunigung usw sowas leißtet jede CPU noch so nebenher, aber wirkliche physik ist das ja wohl nicht....
 
Lübke schrieb:
@moko: naja das sagt er ja grade in dem artikel: weil weder open cl noch compute shader physik-bibliotheken sind oder beinhalten. natürlich können andere produkte ala physx und havok auftauchen und diese verdrängen. diese anderen produkte können auch open cl und compute shading unterstützen. aber einen direkten zusammenhang zwischen physx und open cl bzw compute shader gibt es nicht. und genau das glauben die meisten und damit räumt wolfgang auf.
im grunde können open cl und compute shader sogar zur anwendung von physx dienen. und zumindest bei compute shader ist das sehr wahrscheinlich. auch open cl dürfte von nv imho über kurz oder lang ins boot genommen werden, um den physx-standart gegenüber konkurenten (vor allem havok) durchsetzen zu können. natürlich würde nv es lieber sehn, wenn im pc bereich cuda zur umsetzung von physx genutzt würde. aber das entscheiden halt die mitbewerber (ati, s3, intel).

Ja wenn man ihn verstehen will, dann geht das auch. Ich fand es nur recht erschreckend wie sich ein "Redakteur" derartig undeutlich ausdrückt. Es kommt wirklich ganz anders rüber als es wohl gedacht ist. :)

ps: Standard, nicht Standart :freak:

Interessanter wäre aber doch die Frage, ob man demnächst CUDA noch benutzen wird.

Zu dem Argument, dass es keine Physikbibliotheken auf Basis der neuen APIs gibt. Was zum Teufel soll diese Aussage? Diese Bibliotheken wird es schneller geben als man gucken kann und dann in ganz anderer Quantität und Qualität als bisher. Dafür gibt es doch die neuen APIs, damit man was damit machen kann.
Ich verstehe die Gedankengänge von Wolfgang absolut gar nicht.
 
Zuletzt bearbeitet:
@5@n!töt3r und moko: volle Zustimmung meinerseits. Ich frage mich wirklich, wie Leute dieses Pamphlet als gut geschrieben und recherchiert bezeichnen können.

@Wolfgang: Du fragst, warum viele PhysX für eine Totgeburt halten? Vielleicht ist den älteren unter uns noch Glide im Kopf, das eigentlich ab dem Moment tot war, als Microsoft DirectX eingeführt hat. Sicher, die ersten Version von D3D waren shice, aber M$ brachte regelmäßig neue Versionen heraus, die keinen Unterschied machten zwischen 3dfx und den Mitbewerbern. Glide ist tot. Dass PhysX das gleiche Schicksal erleiden könnte, ist nicht unwahrscheinlich.
 
Danke für die Artikel, ich habe endlich kapiert worum es mit der Zukunft von PhysX weitergeht!
 
7upMan schrieb:
@Wolfgang: Du fragst, warum viele PhysX für eine Totgeburt halten? Vielleicht ist den älteren unter uns noch Glide im Kopf, das eigentlich ab dem Moment tot war, als Microsoft DirectX eingeführt hat. Sicher, die ersten Version von D3D waren shice, aber M$ brachte regelmäßig neue Versionen heraus, die keinen Unterschied machten zwischen 3dfx und den Mitbewerbern. Glide ist tot. Dass PhysX das gleiche Schicksal erleiden könnte, ist nicht unwahrscheinlich.
Wenn du das schreibst, kannst du die News eigentlich immer noch nicht verstanden haben.
Denn was gibt es zwischen Glide --> D3D und PhysX --> OpenCL/DX11 für ZUsammenhänge?
Das eine hat mit dem anderen nichts zu tun.

Glide war genau wie Direct3D eine 3D-API, die im Prinzip für dieselbe Funktion (eben in einer anderen Qualität) gedacht waren.

PhysX und OpenCL/DX11 sind aber nicht für dieselbe Funkion gedacht. Das eine ist eine API, das andere eine Physik-Bibliothek. Das eine ist vollkommen unabhängig von dem anderen, was bei Glide/D3D nicht der Fall war.

Verstehst du, worauf ich mit der News hinaus will?
 
PhysX zu CUDA und dann noch PhysX zu OpenCl bzw. Compute Shader parallel? Also wenn nicht gerade CUDA so auf die nVidia-Shader optimiert ist, als dass die offenen Standards da nicht rankämen, wäre das gnadenlos redundanter Aufwand. Und ob nVidia da nun so hinterher ist, unbedingt offene Standards zu verwenden und PhysX womöglich noch durch fremde GPUs zu beschleunigen...

Für Havok sind diese (OpenCL/CS@DX11) immerhin eine Option, Effekte herstellerunabhängig durch eine GPU kalkulieren zu lassen.

Bleibt nur die Frage, ob sich eine Variante als Standard etabliert. So wie VHS damals...nur muss es erstmal eine entsprechende 3D-ähem-Simulation geben...hüstel... :D
 
Find den Artikel auch nicht besonders und kann nicht verstehen, warum es die Erleuchtung des Jahrzehnts sein soll, wie einige schreiben.
Erstens, es ist keine News, es ist eine Spekulation.
Zweitens, sehe ich den Zusammenhang zwischen Glide und PhysX sehr wohl. Das eine läuft nur auf spezieller Hardware, während das Konkurrenzprodukt auf allen läuft.
Drittens, hast du, Wolfgang, meiner Meinung das Prinzip nicht ganz verstanden. CUDA ist ein "Sprache" um Berechnungen auf der Grafikkarte durchzuführen. OpenCL und Compute Shader auch. Somit wird nicht PhysX von DX11 verdrängt (bzw den Compute Shadern), sondern CUDA. PhysX wird weiter existieren. Aber es wird über kurz oder lang auf DX11 setzen (nicht OpenCL, dazu hört man zu viel schlechtes über OpenGL 3.0 zB und alle bis auf die CAD-Hersteller wenden sich davon ab). Einfach, weil, wie Glide zeigt, ein allgemeiner Ansatz für alle vorteilhaft ist. Spätestens, wenn Havok auf allen DirectX11 Grakas läuft und PhysX nicht, werden die Spielehersteller auf Havok setzen.

Die Frage ist einfach, ob Nvidia CUDA weiterhin "mitschleppen" und weiterentwickeln wird, wenn mit DX11 ein ähnlicher Ansatz kommt, den sie sowieso mit umsetzen müssen. Oder ob nicht ein CUDA-DX11-Wrapper in den Treiber kommt.

Der Artikel zeigt aber sehr schön auf, dass eine Bibliothek (PhysX) eben nicht gleich ein API (CUDA, DX11) ist. Ist eben nicht jeder ein Programmierer. Allerdings mag dieser Fehlglaube auch von der expliziten Verknüpfung von PhysX mit der Hardware (PPU) kommen.
 
ich sags mal so - dank PhysX sind aktuelle Spiele für mich recht uninteressant geworden - dadurch brauche ich eigentlich auch meinen Rechner ni mehr aufrüsten, geb kein Geld für Spiele aus und kann eigentlich nur sparen... - Und warum? Weil jeder Hersteller sein eigenes Süppchen kocht. Ich bin weder AMD/ATI noch NVidia Fan sondern kaufe immer das, was in dem Moment das beste P/L-Verhältnis bietet. Wenn ich allerdings ein Spiel kaufe, dann will ich es auch nach einem Grafikkartenwechsel noch voll spielen können und nicht auf Dinge verzichten müssen, die vorher funktioniert haben. Solange da jeder macht was er will und das ganze nicht freigegeben und von allen gleich genutzt werden kann, ist das Thema für mich gegessen...
 
Was viele hier vergessen

Bereits 2006 gab es mit HavokFX die Möglichkeit über OpenGL oder DirectX & Shader Model 3.0 die berechnung auf die GPU zu verlagern.
Nur wurde es damals noch von keinem Spiel unterstützt.

Leider wurde HavokFX durch Intel vorerst auf Eis gelegt. Nachdem sie Havok übernommen haben.
Erst mit der Kooperation mit AMD wurde wieder an der GPU-Beschleunigung gearbeitet.

Hätte Intel diesen Fehler nicht gemacht. wäre es heut gut möglich dass sich keiner mehr für
Physx interessiert.
 
@Wolfgang: ich habe das Konzept durchaus verstanden, aber OnkelDae hat es gut auf den Punkt gebracht. Die Sache ist auch, dass HavokFX zwar eingestellt wurde, aber was nicht ist, kann ja noch werden. Und sobald erstmal die kritische Masse an Spielen Physik unterstützt, wird da - so meine Spekulation - so einiges ins Rollen kommen.

Wolfgang, was ich vor allem kritisiere ist, dass Du Spekulationen als Tatsachen hinstellst. Du projizierst die heutige Situation auf übermorgen, und das halte ich für einen Fehler. Besser wäre es, den aktuellen Stand der Dinge zu besprechen und es damit auch bleiben zu lassen.
 
@Wolfgang
Warum gehst du in deinem Text nicht darauf ein, dass Microsoft eine umfassende Havok-Lizenz für alle seine Spielestudios erstanden hat.
Das legt zumindest in meinen Augen schon den Schluss nahe, dass sie diese dann auch in DirectPhysics implementieren könnten..
 
d-Raven-b schrieb:
@Wolfgang
Warum gehst du in deinem Text nicht darauf ein, dass Microsoft eine umfassende Havok-Lizenz für alle seine Spielestudios erstanden hat.
Das legt zumindest in meinen Augen schon den Schluss nahe, dass sie diese dann auch in DirectPhysics implementieren könnten..

Weil das höchst spekulativ ist und MS bisher nichts vergleichbares angeboten hat?
bomel schrieb:
Was viele hier vergessen

Bereits 2006 gab es mit HavokFX die Möglichkeit über OpenGL oder DirectX & Shader Model 3.0 die berechnung auf die GPU zu verlagern.
Nur wurde es damals noch von keinem Spiel unterstützt.

Leider wurde HavokFX durch Intel vorerst auf Eis gelegt. Nachdem sie Havok übernommen haben.
Erst mit der Kooperation mit AMD wurde wieder an der GPU-Beschleunigung gearbeitet.

Hätte Intel diesen Fehler nicht gemacht. wäre es heut gut möglich dass sich keiner mehr für
Physx interessiert.
Schon im September 2005 zeigte ATi zur Präsentation der X1800 eine Wellensimulation, die von einer X1800 berechnet wurde.
OnkelDae schrieb:
Find den Artikel auch nicht besonders und kann nicht verstehen, warum es die Erleuchtung des Jahrzehnts sein soll, wie einige schreiben.
Erstens, es ist keine News, es ist eine Spekulation.
Also ich sehe da null Spekulation, sondern logische Gedankengänge.
Zweitens, sehe ich den Zusammenhang zwischen Glide und PhysX sehr wohl. Das eine läuft nur auf spezieller Hardware, während das Konkurrenzprodukt auf allen läuft.
Da ist kein Zusammenhang. Nvidia nutzt die Monopolstellung aus; wenn AMD möchte, dass PhysX auf eigener Hardware läuft, sollen sie den Männern aus Satan-Clara in den Arsch kriechen und selbst den nötigen Solver schreiben.
Drittens, hast du, Wolfgang, meiner Meinung das Prinzip nicht ganz verstanden. CUDA ist ein "Sprache" um Berechnungen auf der Grafikkarte durchzuführen. OpenCL und Compute Shader auch. Somit wird nicht PhysX von DX11 verdrängt (bzw den Compute Shadern), sondern CUDA. PhysX wird weiter existieren. Aber es wird über kurz oder lang auf DX11 setzen (nicht OpenCL, dazu hört man zu viel schlechtes über OpenGL 3.0 zB und alle bis auf die CAD-Hersteller wenden sich davon ab). Einfach, weil, wie Glide zeigt, ein allgemeiner Ansatz für alle vorteilhaft ist. .
CUDA besteht nicht nur aus C for CUDA, sondern auch eine CUDA API ist dabei. OpenCL wird diese CUDA API nutzen, um auf Nvidia-Grafikkarten zu laufen. OpenCL wird CAL nutzen, um auf ATi-Grafikkarten zu laufen. Wenn sich aber CS durchsetzt, dann wird DX11 als API dienen, aber nur wenn Nvidia das erlaubt.
Spätestens, wenn Havok auf allen DirectX11 Grakas läuft und PhysX nicht, werden die Spielehersteller auf Havok setzen
Wenn das keine Spekulation ist, dass Intel - also ein Unternehmen, das CPUs und Larrabee samt eigener API (Ct) anbietet, - ihr Havok mittels DX11 aus Güte für andere Hersteller freigibt...

Die Frage ist einfach, ob Nvidia CUDA weiterhin "mitschleppen" und weiterentwickeln wird, wenn mit DX11 ein ähnlicher Ansatz kommt, den sie sowieso mit umsetzen müssen. Oder ob nicht ein CUDA-DX11-Wrapper in den Treiber kommt.
CUDA API bleibt so lange, bis Nvidia sich nicht zu etwas andrem gezwungen fühlt.
Der Artikel zeigt aber sehr schön auf, dass eine Bibliothek (PhysX) eben nicht gleich ein API (CUDA, DX11) ist. Ist eben nicht jeder ein Programmierer. Allerdings mag dieser Fehlglaube auch von der expliziten Verknüpfung von PhysX mit der Hardware (PPU) kommen.[/QUOTE]
 
Zuletzt bearbeitet:
ComputeShaders/OpenCL = APIs zur GPU-Programmierung
Havok/PhysX = Physik APIs

Allerdings fehlt in dem Artikel der Hinweis darauf, dass sich Physik-Berechnungen mit ComputeShaders/OpenCL selbst programmieren lassen.
Das bedeutet natürlich Mehraufwand für den Spieleentwickler, aber auch mehr Flexibilität.

Um es mal mit 3D-Engines zu vergleichen:
- Wenn man Havoc/PhysX verwendet ist, ist es wie man z.b. die UT3 Engine lizensiert und das Rendern der Szene dieser Engine überlässt => wenig Aufwand
- Mit ComputeShaders/OpenCL ist es wie wenn man einen Renderer in DirectX/OpenGL selbst schreibt => volle Kontrolle

Bei den 3D-Engines gibt es seit Jahren beide Ansätze, beides hat seine Vor- und Nachteile.
 
Zurück
Oben