News AMD und Intel vereint gegen Nvidias PhysX

Find ich auch.
Wenn es keinen einheitlichen Standard geben sollte, soll jede Hardware es voll nutzen können.

Früher konnte man PhysX mit CPU berechnen lassen und es lief flüssig, nachdem nvidia es übernohmen hat läuft es mit Karten zwar sehr gut, aber diese CPU "Unterstützung" ist sinnlos, da es nicht spielbar ist.

Für mich sieht beste Lösung so aus:
Havok & PhysX laufen unabhängig von der Grafikkarte/CPU auf jedem System :D
 
gruffi schrieb:
Ich weiss gar nicht, was ihr mit eurem "Standard" habt. Schaut euch doch mal an, wie viele 3D Engines es am Markt gibt und koexistieren. Gleiches ist auch mit Havok und PhysX denkbar. Problem daran ist halt, ein portables bzw hardwareunabhängiges Backend zu haben. OpenCL wäre jedenfalls eine Option.
So sehe ich das auch, es wird wohl weiterhin beide Hersteller geben. Bisher gibt es PhsyX für CPU+GPU und Havok CPU, da kommt demnächst noch Havok für GPU dazu.
Die Spiele werden weiterhin laufen, die GPU Lösungen, werden wohl dann für die hohe Qualität notwendig sein, die einfacheren können dann mit der CPU berechnet werden.
Etwas später werden dann vermutlich beide Engines und möglicherweise weitere von allen GPU unterstützt.


y33H@ schrieb:
Naja, wir sind hier idR wohl eher PC-User :D Aber so ist es nun mal zumindest klargestellt.

cYa
Wenn die CPU in AoE 3 mit Havok überlastet ist, ist das doch der eindeutige Hinweis, dass es garnicht so schlecht ist, wenn die ATI-GPU in Zukunft unterstützend eingreifen kann.
 
nachdem nvidia es übernohmen hat läuft es mit Karten zwar sehr gut, aber diese CPU "Unterstützung" ist sinnlos, da es nicht spielbar ist
Wie kommst du darauf? Einzig die explizit für GPU-beschleunigtes PhysX propagierten Effekte überfordern aktuelle CPUs :rolleyes:
Wenn die CPU in AoE 3 mit Havok überlastet ist, ist das doch der eindeutige Hinweis, dass es garnicht so schlecht ist, wenn die ATI-GPU in Zukunft unterstützend eingreifen kann.
Mir wäre es lieber, man würde exzessiver auf Multicore-CPU-Physik setzen, eine Grafikkarte ist ohnehin praktisch immer am Limit. Eine Quadcore-CPU dagegen dümpelt viel zu oft bei unter 70% rum. Gerade da die aktuellen Konsolen viel mehr CPU- denn GPU-Power haben, wünsche ich mir, dass man mehr auf die CPU proggt und Konsolen-Ports auf dem PC davon profitieren.

cYa
 
y33H@ schrieb:
Eine Quadcore-CPU dagegen dümpelt viel zu oft bei unter 70% rum. Gerade da die aktuellen Konsolen viel mehr CPU- denn GPU-Power haben, wünsche ich mir, dass man mehr auf die CPU proggt und Konsolen-Ports auf dem PC davon profitieren.

Sehe ich genauso !
Besonderst die Core i7 haben genügend Dampf um die Physik zu berechnen während die GPU sich auf wichtigere Dinge konzentrieren kann.
 
Naja da wird Nvidia schlecht dastehen, denn Intel ist immer noch Marktführer bei GPU`s. Auch wenn dies nur onboard Karten sind. Das wird gerade bei Video Kodierung etc. schnell sich durchsetzen. Bei Spielen wird man sehen, was daraus wird, da Intel dort noch nicht wirklich mitwirken kann.
 
Das wird gerade bei Video Kodierung etc. schnell sich durchsetzen.
Intel ist ja nicht mal in der Lage gescheite Treiber für ihre "Grafikkarten" rauszubringen ...

cYa
 
gruffi schrieb:
Und woran siehst du, dass es an der Physik Engine liegt? Gerade RTS Spiele erfordern viel Rechenleistung. Gibt ja auch noch ganz andere Schwerpunkte wie KI. Vielleicht solltest du dich eher mal fragen, ob dein Prozessor ausreichend dimensioniert ist?
Ein 9950@ 3GHz sollte dafür ausreichen, auch wenn das game nur einen kern nützt.
Aber gerade deswegen, weil die CPU in diesem beispiel genug zu berechnen hat, ist es sinnvoll diese eben nicht mit unötigen physik berechnung noch weiter zu belasten. Vorallem da die graka hier nicht sehr gefordert ist.

gruffi schrieb:
Ähm, ja genau. Was soll denn an PhysX besser umgesetzt sein? Da scheint ja jemand über ungeheures Fachwissen zu verfügen. :rolleyes:
Lesen ist nicht so deine stärke oder?
Es ging um die umsetzung bezüglich der GPU und da ist nvidia intel noch meilenweit voraus oder siehst du das auch anderst?:rolleyes:


gruffi schrieb:
AOE3 nutzt beides.
Diese Behauptung ist schon sehr dreist, wie viel % der AOE gamer spielen auf nem mac, vielleicht 0,1% ?
Nur weil Nvidia da was rumgepatcht hat, was dem großteil der spieler nichts bringt brauch man das hier nicht an die große glocke hängen und solang es nicht für jeden zugänglich ist hat es auch keine physX unterstützung.
Wenns mal auf der PC version läuft, kannst du es gern weiter verbreiten, aber vorher nicht.
So leute wie du, die das game wohl noch nie gespielt haben, aber mit der tollen physX unterstützung prallen kotzen einfach nur an:freak: sorry aber das musste mal gesagt werden.
Spiels einfach mal und sag dann nochmal die havok engine ist so super toll, aber bedenke das spiel ist fast 4 jahre alt und da hatte der großteil der gamer noch athlon XP usw. :rolleyes:


mfg
 
Schlagt euch...

Havok ist aufgrund des Alters schon klar im Vorteil (3DMark 2001 ^^). Sofern ein Spiel gut geproggt ist reicht die CPU für Physik LOCKER aus. Siehe Crysis. Ein Spiel das bei der Physik sehr gut mit Multicore skaliert ....

OpenCL sowie DX11 werden es denke ich auf längere Sicht richten, wenn man bedenkt dass die 4x (glaube sogar die 3x) Serie von ATi theoretisch bereit DX11 beherrscht (stand mal vor über nem Jahr irgendwo... Gerücht wohlbemekrt ^^). Stream/CUDA ist das gleiche wie ForceWare Catalyst Packete. Beide haben unterschiedliche Bibliotheken und DX10 sowie OpenGL schweißen die beiden zusammen ^^. Dem Entwickler ist dabei Hupe welche Grafikkarte hinter hängt, es sei denn man optimiert.
 
Und ewig tobt der Standard Krieg - ich hoffe nur das sich bald möglichst alle auf einen gemeinsame Lösung einigen können.

Nvidia hat immer hin schon einmal ein Projekt unterstützt das Physx auf ATI Karten bringen sollte, während ATI diese Projekt boykottierte. Ich frag mich doch ehrlich was sich die Firmen durch einen solchen Standard Krieg erhoffen.

Mein primäre Hoffnung läuft darauf hinaus das es einen Standard gibt der von allen unterstütz werden wird.
Oder das alle Firmen beide Standards unterstützen ansonsten werden wir nie spiel bestimmendem Einsatz von Physik Berechnungen in Spielen sehen die über graphische schmackerl hinausläuft.

Es ist nicht realistisch das Spiele Entwickler beide Standards voll unterstützen, um komplexe spiel Thematiken abzubilden, dazu ist der Aufwand schlicht zu groß.
 
Ein Spiel das bei der Physik sehr gut mit Multicore skaliert
10-15% mehr von einem DC auf einen QC und das nur dann, wenn man mit mindestens einer GTX285 anrückt :freak:

cYa
 
Und selbst mit der Karte gibts nicht wirklich Steigerungen zu beobachten. Der eine Test in dem man mit EINEM Kern bestens Crysis spielen konnte, den fand ich eigentlich am interessantesten ;)
 
@dngfng

seh ich auch so... ein Standart muss her... man wird sehen welcher in Zukunft überleben wird.
Desweiteren wäre es nett, wenn man z.b. von 4 Cores einen oder zwei für die Physik nehmen könnte + GPU Unterstützung!

Läuft mir alles bissel zu langsam ab. Vielleicht wird es jetzt eine schnellere Entwickung, durch die entstehende Konkurrenz, geben.


€dit: kann man irg.wie rausfinden wieviel % Leistung bei Verwendung 1 GPU mit aktivierter GPU-Physik (PhysX) gebraucht wird? Und somit dann noch für die Grafikleistung vorhanden ist?
 
Zuletzt bearbeitet:
Bitte nicht schon wieder. Die CPU hat nicht genug Power um Physik zu berechnen, auch nicht ein Core eines i7 langt dafür.

Warum glaubt ihr wohl wollen AMD und intel Grafikfunktionenen in dei CPU quetschen, um genau diese fehlende Performance zu bekommen.

Mir ists piepe ob Havok oder PhysX, Hauptsache die Spiele laufen auf jeder Hardware in vernünftiger Perforamnce.
 
fox40phil schrieb:
@dngfng

seh ich auch so... ein Standart muss her...
Was schwebt dir denn da so vor?
Obst- und Gemüsestände gibt es imho doch genug?
(http://lexikon.martinvogel.de/standart.html)

Da Havok ja anscheinend OpenCL benutzen wird, muss nun nur noch PhysiX neben CUDA auch OpenCL-Unterstützung bringen, technisch wohl nicht so kompliziert da sich CUDA und OpenCL sehr ähnlich sind. Und schon kann jeder aufhören zu heulen.
 
flappes schrieb:
Bitte nicht schon wieder. Die CPU hat nicht genug Power um Physik zu berechnen, auch nicht ein Core eines i7 langt dafür.
Hmmmm :rolleyes: es ist also purer Zufall dass man in den meisten Spielen am Boden läuft und nach einem Sprung auch dort wieder landet? Nicht durch Wände laufen können und sich bewegende Gegenstände sind nichts anderes als Programmierfehler? Danke, das habe ich bisher nicht gewußt!

Pfff, sorry, aber lest doch wenigstens den Thread durch, zwichen etlichen schrägen Beiträgen gibts doch immer welche die etwas Licht in das Thema bringen.
Wenn jeder das tun würde, bräuchten die schrägen Beiträge nicht x-mal wiederholt zu werden...

Und JA, bin heute wohl mit dem falschen Fuß aufgestanden ;)
 
@flappes

die Hersteller wollen "bislang" noch keine Grafikfunktionen in die CPU stecken, sondern nur die GPUs die sonst auf manchen Boards onboard (meist in der Northbridge) verbaut waren, in das CPU-Package verfrachten. Das Ergebnis ist aber das selbe wie zuvor. Außer, dass es eventuell Fälle geben könnte wo trotz in die CPU integrierter Onboard Grafik ne externe Karte benötigt wird, weil das Mainboard keine Displayanschlüsse hat. (Hoffe allerdings, dass soetwas dann Standard wird, wenn die onboard GPUs in das CPU-Package wandern.

Eine Grafikkarte ist bis auf wenige Ausnahmen, trotz ihrer enormen Rechenleistung der Flaschenhals in modernen Spielen. Hier ist es jedenfalls sicher sinnvoller auch die CPUs so gut wie möglich zu belasten, um die Framerate nicht noch weiter in den Keller zu treiben. Ich glaube, dass die in manchen Spielen vorhandene Effekt Physik durch GPU-PhysX nur nicht ebenfalls ordentlich für CPU-PhysX optimiert ist, denn z.B. die alte Ageia PPU ist mittlerweile ein alter und nicht sonderlich leistungsfähiger Chip, und kommt trotzdem mit den Berechnungen zurecht. Klarerweise gibt es für nVidia bisher keinerlei Grund einen perfekt optimierten CPU-Client zu bringen, da dann der "Vorteil" der GPU-Berechnung kleiner wird.
 
naja das mit dem programmieraufwand ist doch gar nicht so wild. gut in heutigen 0815 entwicklungen die in rekordzeit zusammengeklopft werden und dann als alpha an den kunden verkauft werden könnte das schwierig werden aber ansonsten gabs das prinzipiel schon immer ich denke sogar in extremeren mase. für hl1 gabs z.B. opengl und dx renderer (wobei der opengl-renderer der bessere war bzw schneller)
Des weiteren gabs in quake3 auch nen glide renderer wenn mich nicht alles teuscht. Das ganze muss ja nicht mal unbedingt von nem spielehersteller geleistet werden. es muss einfach ne engine geben die beides unterstützt und gut.

Nur hoffentlich setzt sich diesmal das bessere durch, im gegensatz zu dx, und nicht das was einfacher zu programmieren ist und wo mehr marktmacht da ist. im idealfall ist das biedes havok hoffentlich.

achja und zu der wahl von amd gegen nvidia, wenn nvidia offenbar die engine sehr auf ihre gpus optimiert hat, und havok deutlich besser mit amds hardware skaliert wieso sollte man dann auf physix setzen wenn es nur dazu führen würde das in allen benchmarks die dann irgendwann nur noch mit spielen die auch physik unterstützen anbieten dann im gesamtbenchmark immer unterlegen würde, und es dann heißen würde nvidia ist leistungsspitze.
 
Zuletzt bearbeitet:
the witcher schrieb:
Lesen ist nicht so deine stärke oder?
Es ging um die umsetzung bezüglich der GPU und da ist nvidia intel noch meilenweit voraus oder siehst du das auch anderst?:rolleyes:
Nochmal, woher willst du das wissen? Bist du an der Entwicklung von Havok und PhysX beteiligt? Wenn auf der GDC etwas vernünftiges bezüglich Havok präsentiert wird, ist zumindest von meilenweit nichts zu erkennen. Und sollte die Implementierung sogar auf OpenCL basieren, ist Havok hier sogar PhysX voraus. Denn damit würde Havok hardwareunabhängig auf GPUs laufen. PhysX kann das bisher nicht von sich behaupten.

the witcher schrieb:
Diese Behauptung ist schon sehr dreist, wie viel % der AOE gamer spielen auf nem mac, vielleicht 0,1% ?
Wenn du das als dreist ansiehst, ist das deine Angelegenheit, die exakt nichts mit der Realität zu tun hat. Es ist schlichtweg eine Tatsache, nicht mehr und nicht weniger. Ob nun viele Leute AEO3 auf dem Mac spielen oder nicht, war überhaupt nicht gefragt.

the witcher schrieb:
So leute wie du, die das game wohl noch nie gespielt haben, aber mit der tollen physX unterstützung prallen kotzen einfach nur an
Langsam aber sicher nehmen deine Aussagen schon groteske Züge an. Wo bitteschön pralle ich mit PhysX? Wenn du nicht mit sachlichen Aussagen zu technischen Details klar kommst, solltest du dir vielleicht ein anderes Hobby suchen. :rolleyes:

flappes schrieb:
Bitte nicht schon wieder. Die CPU hat nicht genug Power um Physik zu berechnen, auch nicht ein Core eines i7 langt dafür.
So pauschal kann man das nicht sagen. Kommt immer darauf an, was man umsetzen möchte. Für vieles reicht die CPU vollkommen aus.
 
Zuletzt bearbeitet:
the witcher schrieb:
Nope, Havok ist der größte scheiß nr.1 vielleicht ;)

spiel doch mal AOE 3, mit vielen gegner da ist die cpu viel zu überlastet....

y33H@ schrieb:
Nein, Havok.Informiert euch doch mal :mad:

the witcher schrieb:
Deswegen steht auch havok auf dem game drauf, weil es PhysX nützt :rolleyes:
Ich liebe solche leute die sich nicht richtig informieren....

mfg

http://de.nzone.com/object/nzone_physxgames_home_de.html <= Da wird AoE 3 als PhysX gelistet und nVidia sollte es wohl wissen. Oder meint ihr ein anderes AoE, welches nicht fuer Age of Empires steht?

Wobei mir da aber auffaellt, dass ich, bis auf UT3, keins der genannten Spiele habe.

Edit: Danke gruffi. Ich wusste nicht, dass es beide Engines nutzt.
 
Zuletzt bearbeitet:
gruffi schrieb:
Nochmal, woher willst du das wissen? Bist du an der Entwicklung von Havok und PhysX beteiligt? Wenn auf der GDC etwas vernünftiges bezüglich Havok präsentiert wird, ist zumindest von meilenweit nichts zu erkennen. Und sollte die Implementierung sogar auf OpenCL basieren, ist Havok hier sogar PhysX voraus. Denn damit würde Havok hardwareunabhängig auf GPUs laufen. PhysX kann das bisher nicht von sich behaupten.
Ich arbeite da genauso wenig wie du, aber momentan gibts keine havok lösung für die gpu oder kannst du mir hier das gegenteil beweisen?

gruffi schrieb:
Wenn du das als dreist ansiehst, ist das deine Angelegenheit, die exakt nichts mit der Realität zu tun hat. Es ist schlichtweg eine Tatsache, nicht mehr und nicht weniger. Ob nun viele Leute AEO3 auf dem Mac spielen oder nicht, war überhaupt nicht gefragt.

Realität ist auch, dass das Grundspiel nur havok unterstütz(kannst du alter besserwisser übrigens gern bei den esemble studios nachlesen oder vielleicht kaufst dir das spiel mal, da steht es nämlich auch drauf:rolleyes:), was da Nvidia nachtgepatcht hat, damit es auf nem Mac mit physX läuft ist mir wurst, da es für die allgemeinheit nicht zugänglich ist.
sieht man übrigens an dieser liste hier auch sehr gut, dass physX nicht von den esemble studios für das spiel optimiert wurde klack
Was da dann für andere leute noch rumgebastelt haben interessiert imo nicht, zudem haben sies für das letzte addon noch nicht mal übertragen.
Daher ist es schlichtweg falsch zu behaupten, es würde beides unterstützen, denn dann würde von vorne herein auch alle offiziellen addons, von PhysX profitieren, was sie nicht tun:rolleyes:


@BrollyLSSJ
Nope es unterstütz eben nicht beide engines und im gegensatz zu manch anderen besserwissern hier spiel ich das spiel ;)

mfg
 
Zurück
Oben