News AGEIA PhysX ab Herbst verfügbar?

MountWalker schrieb:
Ja, Nascar hatte nicht den kauf ausgelöst, aber Nascar hat der Spieleindstrie den nötigen Anstoß gegeben, es gab damals noch eine ziemliche Ablehnung, viele befürchteten 3D-Programmierung sei zu kompliziert, als sie gesehen hatten wie Voodoo Nacar verändert hatte waren sie überzeugt. ;)

Du kannst den Erfolg von 3D-Karten doch nicht im Ernst an diesem Spiel festmachen!?
Vielleicht hat es ein paar Kritiker überzeugt, aber für den Erfolg von 3dfx hat das jedenfalls nichts gebracht. Auch ohne Nascar incl- 3dfx Unterstützung wären die Karten ein großer Erfolg geworden.

Damals hatten die Grafikkarten eben keine Rechenleistung für 3D-Modelle.
Als damals die erste Voodoo mit 4mb auf dem Markt kam, werkelten in den meisten PCs von irgendwelche S3 Virge/Trio, Hercules und wie sie alle hießen.
 
die demos zeigen nicht das vollen potential von diesem ding. die physik engine die dort verwendet wird ist mit den engines aus aktuellen spielen absolut nicht vergleichbar. der große unterschied liegt in der kolisionskontrolle. diese physik engine ist in der lage viele sehr komplizierte objecte gliechzeitig korrekt zu berechnen. die kolisionen die heute game engines zu stande bringen sind damit absolut nicht vergleichbar(alles was mehr ecken hat als ein würfel wird nicht korrekt berechnet).

höchst warscheinlich sieht man bei den demos nur die software wariante der novodex engine. die selbe engine wird auch im neuen XSI 5 verwendet und dort ist sie in er lage eine zusammenstürzende ziegelwand aus hunderten(wenn nicht sogar tausende) ziegeln in die ein sehr detailiertes auto fährt mit 100% korrekten kolisionen zu simulieren - und das fast in echtzeit auf der CPU(ok, das war ein dual dual-kern(also 2 dual-kern cpus ;)) amd system mit 8gb ram, aber immerhin :P). die einbau karte(die XSI auch unterstützen wird sobald man sie denn bekommen kann) sollte allerdings wesentlich mehr berechnen können als dieser rechner. das video davon gibt es hier unter "Rigid Body Physics": http://www.softimage.com/Products/Xsi/v5/nfvt/default.asp (die datei kann man leider nicht direkt verlinken, müsst ihr also selber dort suchen)

auf dem video lässt sich auch erahnen welche leistungen diese physikengine wirklich vollbringen kann. wenn man sogar noch komplexere simulationen mit der karte in echtzeit berechnen können wird dann iszt die ihre 300€ in jedem fall wert - eine cpu wie wir sie in unseren rechnern haben kommt ja an diese videos nichtmal ansatzweise ran.

EDIT: was für einen rechner die dort für die videos benutzt haben lässt sich übrigens in dem rendering video erahnen. zumindest bei den 4 kernen und den 8gb ram kann man also sicher sein. was für opterons das genau sind weiß ich allerdings nicht - eventuel ist es auch ein ganz normales 4 cpu system.

ausserdem sollte man sich eventuel auch das produkt mal genauer ansehen bevor man postet. die engine unterstützt nur rigid body dynamics! verformungen sind noch weit aus komplizierter und bevor man nicht erstmal eine ordentliche symulation für feste gegenstände hat auch vollkommen uninteressant.
 
Zuletzt bearbeitet:
OHH... 30 mal so schnell? Entweder standen da gestern Nacht in der News noch "30% schneller" und es wurde gefixt, oder ich war schon zu müde =). Die Zahl klingt zumindest sehr beeindruckend, die Demos hauen mich immernoch nicht vom Hocker. Aber erstmal schauen was da so passiert.
Kann mir auch sehr gut vorstellen, daß ATI oder nVidia die Sache aufkaufen... allerdings frag ich mich dann, wie die ihre GraKas noch kühlen wollen. Mal davon abgesehen, daß neue High-End Grakas dann vermutlich in Regionen von 750 Eur vorstoßen...
 
Ne, da standen definitiv immer 30x. ^^

mfg Simon
 
Hildebrandt17 schrieb:
Wie das Beispiel mit dem Auto zeigt müste es doch eigentlich möglich sein Metapartikel (hier ein netter Link mit einigen Beispielen (auf Galerie klicken!) was man mit Meapartikeln anstellen kann!)
in Echtzeit zu berechnen.
Das wird selbst mit der Physikkarte noch nicht möglich sein, jedenfalls nicht ganz in der Quali, aber sicher ansatzweise. Die Videos die man in der Galerie sieht haben wahrscheinlich tagelang gebraucht zum rendern. ;)
Zu dem Faktor 30. Je nach Einsatzgebiet hat die GPU einer GF6800GT die Leistung einer virtuellen 40Ghz (in Zahlen: vierzig) Pentium 4 CPU.

@Siberian..Husky
Ganz so ist es ja auch nicht. Zum Beispiel fallen die Körper in HL² auch sehr realistisch, haben aber mehr Ecken als ein Würfel. Es gibt da schon ziemlich ausgefeilte Techniken. Ich beschäftige mich gerade beruflich damit.
 
Zuletzt bearbeitet:
@Green Mamba: darum ging es ja garnicht. sicher gibt es da techniken um das agnze halbwegs genau und sehr schnell zu machen. das ist aber immernoch was anderes als das ganze wirklich 100% genau zu berechnen - und das macht die novodex engine wenn man will. daher sehen die videos nicht so besonders beeindruckend aus obwohl sie es eigentlich sind.

wenn der chip die wirklich schwierigen sachen in echtzeit hinbekommt dann bekommt er schließlich die (für die hardware) einfacheren sachen noch viel schneller hin ;).
 
ich hab die videos zwar net angesehn aber die physik effekte müssten schon extremst verbessert werden damit sich son teil lohnt
heute wird ja net mal die cpu richtig beansprucht
morgen wird dualcore standard(und games multi threaded) und dadurch siehts noch krasser aus
 
Zero2Cool schrieb:
Du kannst den Erfolg von 3D-Karten doch nicht im Ernst an diesem Spiel festmachen!?
...
Sicher hätte der Umstieg früher oder später sowieso stattgefunden, aber erst wenn ein kompletter Spiel-Release-Zyklus nach Markt-Debut der Voodoo durchschritten worden wäre und Carmack sein Quake der Welt präsentierte, dank Nascar-Neuveröffentlichung ging das wesentlich schneller, weil es eben wesentlich weniger Zeit kostete für Nascar einen Glide-Renderer zu schreiben als ein komplett neues Spiel zu bauen - Nascar-Glide war schneller auf dem Markt als Carmack/Willits/Romero die erste Alpha von Quake rausbringen konnten, kurz nach Veröffentlichung der Voodoo. Der Umstieg hätte ohne flotte Nascar-Neuveröffentlichung als Groß-Demo wesentlich länger gedauert, 3Dfx hätte damit nicht so viel Gewinn gemacht und die 3D-Entwicklung wäre sicherlich anders von Statten gegangen, auch wenn sie dennoch von Statten gegangen wäre - vielleicht wäre Nvidia erst später von NURBS auf Polygon-Rendering umgestiegen, weil 3Dfx nicht die erschütternde Marktmacht erlangt gehabt hätte - man weiß es nicht. ;)
 
Zuletzt bearbeitet:
....das ist in meinen augen in erster linie mal den markt abcheken obs den überhaupt ankommt.
und ich perso würde auf jedenfall keine 200- 300 €uronen dafür zahlen wegen ein paar effekten mehr ,fand schon HL II im grossen und ganzen nonsen und somit éinen enttäuschung....zu viel schnick schnack und einfach zu wenig spiel und story,wie so viele in den letzen monaten.
entweder wirds so floppen wie die sli geschichte oder es wird der hammer,was ich nicht bei den preis glauben kann.
wird schon gewisse von beruf --> sohn typen geben dies sich schenken lassen..... ;)
 
Green Mamba schrieb:
Wie bitte was? Wann wurden Nurbs per Hardware gerendert? :confused_alt:
Bei NV1 und NV2, siehe Lexikon zu Nvidia.

Der NV5 (der dritte Chip von Nvidia, der Ziffernsprung sollte den Umsturz, das, wie die Ammies sagen "Brain-Transplant" deutlich machen) war der erste Polygon-Chip von Nvidia und vorher wurde der Chefentwickler oder CEO (keine Ahnung, eigentlich entscheidet sowas ja durchaus der CEO) getauscht, der neue Chefentwickler oder CEO kam von irgendeinem anderen Unternehmen wo man schon sagte: "Aha!", sowas, wie Pieschetsrieder heute bei VW, der ja mal Manager bei BMW war. Nvidia gings wirklich nicht gut, weil NURBS-Hardware nicht an den Markt kam und drohte vor dem Aus zu stehen, "Brain-Transplant": Umstieg auf Polygon-Rendering-Chips und siehe da Nvidia wuchs sich mehr als gesund. ;)
 
Zuletzt bearbeitet von einem Moderator: (Lexikon-Link korrigiert)
@Hildebrandt17

Heilige Sch...e , wie geil ist DAS denn!?! In der Galerie oben links das Weinglas... da hat doch einfach einer was eingegossen und die Kamera draufgehalten *g*. Absolut unglaublich....

Da kommen echt noch geile Sachen auf uns zu, ich möcht mir garnicht ausmalen wie Spiele in 10 Jahren aussehen werden (vergleiche Descent von 1995 mit UT2007/Gears Of War).
 
Butterbemme: das man heutzutage photorealistische bilder aus einem renderer bekommt ist aber nichts neues. echt aussehende simulationen wie die auf der seite ebenfalls nicht ;).

für solche effekte ist der chip aber wiegesagt mit sicherheit viel zu langsam. es geht hier erstmal nur um physik für feste körper. keine die man verformen kann oder gar partikel und fluid-simulationen.
 
@ Siberian..Husky

Ich hab mich grad noch durch fast alle anderen Videos auf der Seite geklickt, die sind allesamt weniger beeindruckend, da sieht man sofort daß es ausm Rechner kommt. Und wenn ich bedenke, daß man selbst in Millionen $ teuren Hollywood-Filmen eigentlich immer sieht, wenn irgendwelche Effekte gerendert sind, finde ich dieses für mich 100% realistische Weinglas schon krass. Aber es ist auch nurn Glas und kein King Kong *g*.
 
Zuletzt bearbeitet:
mir gefällt diese ausführung eines physik - chips gar nicht
da kommt noch eine karte mehr dazu wo ohnehin schon fast kein platz in den gehäusen und bei den steckplätzen ist (zb. gf 6800 ultra 2steckplätze, soundkarte 1 steckplatz, tv karte mit ci modul 2steckplätze = 5 steckplätze und schon ist das mainboard voll)

jedoch wenn der physik - chip auf der grafikkarte integriert wäre würde mir diese neue
technik sehr gut gefallen
rein von der übertragungskapazität wäre bei pci express 16x genug spielraum
da die grafikkarte nur 10-15% der leistung verbraucht aber mit der architektur könnte
es probleme geben
 
Siberian..Husky schrieb:
Butterbemme: das man heutzutage photorealistische bilder aus einem renderer bekommt ist aber nichts neues. echt aussehende simulationen wie die auf der seite ebenfalls nicht ;).

für solche effekte ist der chip aber wiegesagt mit sicherheit viel zu langsam. es geht hier erstmal nur um physik für feste körper. keine die man verformen kann oder gar partikel und fluid-simulationen.

Das ist absoluter Quatsch, es geht nicht nur um Festkörper (wäre völlig Hirnverbrannt nur deswegen ein Physikchip zu entwickeln). Die Karte beschleunigt das alles was das Novodex SDK kann, dazu gehören auch Fluide!
 
In diesem Bereich soll die Leistung gegenüber aktuellen High-End Prozessoren um mehr als 30x höher sein. Statt 1.000 Objekte wie die normalen CPUs, soll die AGEIA PhysX in der Lage sein, ganze 32.000 Objekte gleichzeitig berechnen zu können.
Aha. Interessant...
Liest denn da keiner Korrektur der ein kleines bisschen Ahnung von Informatik hat?
Von einer linearen Laufzeit lohnt es sich nicht mal zu träumen in solchen Fällen.
Für die Interaktion zwischen 32 mal sovielen Objekten ist WESENTLICH mehr als die 30 fache Leistung erforderlich.
Eher könnte man dafür die ?00 fache Leistung ansetzen...
Normalerweise fällt ein solcher Algo unter O(n^2). Vielleicht kann man die auch noch etwas drücken mit hierarchischen Beschleunigerstrukturen. Aber lineare Laufzeit wird man nie erreichen können.
 
Hoffe, dass das bald Standard wird - und in ein paar Jahren auf jeder Notebook-GraKa ein solcher Chip vorhanden sein wird!
 
Zurück
Oben