News AGEIA: Weiterer Hersteller für PhysX-Karten

also bei den demo videos war ich nichtr so überzeugt wo ne bombe an enen gelender einfach abpralt und ein dele im gelender zu hinterlassen. wen da nicht echt noch was specktakuleres hinterher kommt glaub ich nicht das ich mir eine bei den preis zuleg

@18
was bringt es wen ich keine neue cpu brauch(so heufig brauch man seine cpu ja auch nciht wechseln) aber ne neue pysik karte brauch
 
Zuletzt bearbeitet:
Beim Lesen dieses Threads muss man unweigerlich über ein paar Dinge nachdenken...

Warum soll ein Physik-Coprozessor auf einer Grafikkarte integriert werden? Umgekehrt die Frage, wozu überhaupt einen solchen, wenn vielleicht mittels Shaderprogrammen ebensolche Rechenpower bereitsteht?

Welche Ansprüche stellen Spieler an die Spielphysik? Ergibt sich daraus notwendigerweise ein Bedarf für einen entsprechenden Spezialprozessor? Sony hat dies bei der kommenden PlayStation 3 offenbar nicht für notwendig gehalten und daher auch nur das API lizenziert.

Bei einem Preis von knapp EUR 100,- dürften sich aber auch unentschlossene Spieler interessiert zeigen. Natürlich nur, wenn Spiele-Entwickler die neue Ressource sinnvoll einzusetzen wissen.
 
Das die CPU für Physik nicht gebaut bzw. überfordert ist, merk man am einfachsten an HL2. z.B. eine HE in einen Müllhaufen geworfen, ist die Explosion ist schneller als der Müll
der dadurch herumfliegt, es sind zwar nur Millisekunden aber man merkt es. Da die CPU bei aktuellen Games hauptsächlich mit Physik beschäftigt ist, sehe ich nicht ein, ein gutes
System für bestimmt mehr als 300€ (Mobo + CPU + Graka(PCIX)) auf 64Bit umzustellen. Da ein Athlon 3200+ für KI reichen sollt. Ich denke ein PPU hat als Upgrade absolut seine Berechtigung.
 
Und das beste daran: diese Technologie ist ab der v5 in Softimage|XSI eingebaut und wird auch mit dieser Beschleunigungshardware zusammen arbeiten. Ausserdem unterstützt die Ageia Engine nicht nur Rigid Bodies, sondern auch Soft Bodies, Cloth, Fluids, Hair etc. und ist daher ein Allroundtalent wenn es um Dynamiksimulationen geht.
 
Solche Karten werden noch seehrr lange überflüssig sein, erstmal kommt Dual-Core und dann ist wieder genug Power da für alle aktuellen und zukünftigen Spielen
um Physik, KI usw. zu berechnen durch die CPUs.
Heutige schaffen es ja auch noch ohne Probleme, es müsste schon eine gewaltige Physik-Engine Innovation geben die so CPU lastig ist das solche Karten nutzen haben.
 
Die Leute, die behaupten dass ein Physikbeschleuniger unsinnig ist, haben meiner meinung nach genauso recht wie die, die meinen ihm gehört die Zukunft. Jetzt und in absehbarer Zeit wird man auch ohne auskommen gerade mit DC, was eine annähernd verdoppelte rechenleistung mit sich bringen KANN, also schon wesentlich mehr Berechnungen als in der vergangenheit.
Aber die Zukunft lässt sich nicht aufhalten, wie man an den Zitaten weiter oben schon sehen kann. In mittlerer Zukunft wird/kann es zum Standart gehören we eine Graka.

Beide Aussagen haben zu unterschielichen Zeiten ihre Berechtigung.

Spik3 schrieb:
Heutige schaffen es ja auch noch ohne Probleme, es müsste schon eine gewaltige Physik-Engine Innovation geben die so CPU lastig ist das solche Karten nutzen haben.

naja ein kumpel hat mal für ne facharbeit ein 3D modell mit unzähligen effekten gemacht, wo die berechnung für einen frame 10 minuten auf einem A64 gedauert hat. Wenn ein Physikbeschleniger da was bringt würde er sich bestimmt freuen.
 
Zuletzt bearbeitet:
@ Spik3
Du brauchst doch nur die Genauigkeit der Berechnung für jedes Quant im Spiel etwas zu erhöhen und der Rechenaufwand wird enorm größer oder mehr Partikel einzubauen ... Ich denke mal da gibt es viele Wege das Teil komplett zu überfordern ;-)
Wie z.B. bei GPUs die Auflösung / AA / AF usw. dein flüssig laufendes Spiel in eine Dia-show umwandeln kann, man wird dann aber wohl nur die Einstellungsmöglichkeiten zulassen, die momentan sinnvoll sind, oder kann jemand 128er AA oder 512er AF einstellen?
 
Ich finde diese Idee und die Karte exzellent ! Anstatt immer dickere CPU's zu bauen um besser Spielen zu können (unter anderem :D) ist es doch viel effizienter das Problem zu verlagern. Damit könnte die CPU und die GPU enorm entlastet werden. Und gleichzeitig würde die CPU mehr Leistung für andere Berechnungen bereithalten können.

Denn wie gesagt ist eine CPU nicht besonders gut für Physik Berechnungen geeignet. Dann würde die PhysX Karte dies sehr gut kompensieren. Zumal uns das 64Bit Zeitalter erwartet, könnte es doch eine sehr gute Möglichkeit sein die neuen Spiele effizienter zu Verwalten.

Meiner Meinung nach würde eine schnelle GPU in Kombination mit einer 64Bit Dualcore CPU und dieser PhysX Karte alles zersägen.

[-eraz-] schrieb:
Hier wird immer von "der Physik" gesprochen. Aber was ist nun "die Physik" überhaupt? Ein Fass das durch die Luft fliegt? Ein Stein der zu Boden fällt?

Zu deiner Frage: Physik ist beispielsweise wenn du in einem Rennspiel jemanden Frontal rammst und im Hintergrund exakt berechnet wird wo was je nach Geschwindigkeit, Winkel, Gewicht, Masse einschlägt und was sich deformiert und auch realistisch deformiert.

Sowas kannst du oft bei Crash-Test Simulationen in der Automobilindustrie verfolgen. Dort arbeitet man schon lange an Crash Simulatoren , da sie viel kostengünstiger sind als wenn ich jedesmal ein Testfahrzeug gegen die Wand fahren muss.

Außerdem kann man so gezielt am PC Schwachstellen einer Karosserie etc. herausfinden.

Aber zu deiner Frage: Physik ist alles das , was unsere Welt ausmacht nur auf PC's realistisch dargestellt. Hast bestimmt den Ausdruck "physikalisch korrekte Explosion" usw. gehört.
 
Zuletzt bearbeitet von einem Moderator: (Doppelpost zusammengefügt)
Ich kenn mich da nicht besonders gut aus, aber wenn die PPU so extrem viel schneller und sie noch programmierbar ist, dann würden viele zukünftige Supercomputer sicher hauptsächlich auf PPUs bauen, oder? ;)
Oder ist die PPU eher vergleichbar mit einer GPU? (was ich mal vermute ...)
 
Corvin schrieb:
Oder ist die PPU eher vergleichbar mit einer GPU? (was ich mal vermute ...)
Ja genau, und weil man bei großen Clustern absolut kompatibel zu allen Programmen sein will, wäre ein Supercomputer mit PPU´s wohl nicht das Gelbe vom Ei. ;)
 
Green Mamba schrieb:
Ja genau, und weil man bei großen Clustern absolut kompatibel zu allen Programmen sein will, wäre ein Supercomputer mit PPU´s wohl nicht das Gelbe vom Ei. ;)

Wie schade ;) das wäre ein netter boost gewesen ...
 
wenn das ding kommt, denn hoffe ich auf geile simulationen.
 
Spik3 schrieb:
Solche Karten werden noch seehrr lange überflüssig sein, erstmal kommt Dual-Core und dann ist wieder genug Power da für alle aktuellen und zukünftigen Spielen
um Physik, KI usw. zu berechnen durch die CPUs.
Heutige schaffen es ja auch noch ohne Probleme, es müsste schon eine gewaltige Physik-Engine Innovation geben die so CPU lastig ist das solche Karten nutzen haben.

warum revolution? nur weil du in spielen noch keine vernünftige physik gesehen hast? warum wohl!?

ausserhalb von spielen gibt es dank evolutionj schon längst sehr genaue und komplexe physikberechnungen. in spielen gibt es derzeit ja praktisch ausschließlich rigid body physik, das könnte sich mit dem chip ändern. ausserdem lässt sich damit auch mehr physik in der selben zeit berechnen.

es ist also garkeine revolution möglich. die physik engine dieser firma kann schon jetzt wesentlich mehr als in spielen zu sehen ist, und wenn man das ganze dank des chips in echtzeit zum laufen bekommt wird das mit sicherheit ein riesiger schritt für physik in spielen. da kann man sich also schonmal aufs nächste jahr freuen.


zum preis: das is der einstiegs preis. diesen herbst wird es wohl kein einziges spiel geben das das ding unterstützt. die einzigen die sich also so eine karte kaufen werden sind xsi5 benutzer - da die nunmal nicht sooo häufig sind wird diese karte am anfang auch keine verkaufs rekorde brechen können und damit auch dementsprechend teuer verkauft werden müssen.
 
Wie soll eine Dualcore-CPU die Physik-Karte ersetzen, wenn diese die Physikleistung von 10 Topaktuellen CPU´s bringt? ;)
Dieses Gerede ist das gleiche als wenn man sagen würde dass man keine Shader braucht, weil das ja auch die Dualcore-CPU erledigen kann. Und der Vergleich zwischen GPU und PPU ist durchaus berechtigt.
Es geht hier also primär nicht darum die CPU zu entlasten, sondern man möchte komplett neue Möglichkeiten bieten. :)
 
Leutz, mal ehrlich, wer das Ding haben will, der kauft es sich. Wer meint es ist für ihn überflüssig, des lässt es bleiben. Fakt ist, es ist ne neue Technik und wir werden sehen ob sie was taugt oder nicht und ob sie sich durchsetzt.


P.S.: Je oftes ich die Kommentare lese um so mehr bin ich der Meinung, man sollte diese Funktion unterbinden. Nix für ungut. :)
 
|0.8.1.5| schrieb:
Leutz, mal ehrlich, wer das Ding haben will, der kauft es sich. Wer meint es ist für ihn überflüssig, des lässt es bleiben. Fakt ist, es ist ne neue Technik und wir werden sehen ob sie was taugt oder nicht und ob sie sich durchsetzt.


P.S.: Je oftes ich die Kommentare lese um so mehr bin ich der Meinung, man sollte diese Funktion unterbinden. Nix für ungut. :)


WOW, auch mal wer mit weisen Worten ;-) Wie viele Profis sicher hier doch rumtreiben, obwohl es das Teil noch nicht einmal am Markt gibt! ...
Letzteres von dir gilt wohl nicht nur für diesen thread allein ...
 
Leistung ist durch nichts zu ersetzen als durch noch mehr Leistung.

Es gibt hier welche die Glauben es braucht keine PPU, es braucht keine schnelleren CPU, es braucht keine realistischeren SPU (Soud Processor Units -> X-Fi) und die GPUs braucht ja auch kein Mensch schön.

Doch wehe ich erwische einen von euch mit einem Rechner welcher "mächtiger" ist als ein 8080er. Schliesslich braucht man den ganzen neuen Scheiß nicht, also warum wurde er entwickelt?

Warum Träumt man denn von fotorealistischen Spielen, ja echten virtuellen Welten? Warum träumt man denn von echter KI welche dem Menschen das Wasser reichen kann ? Wenn man euch so tönen hört, müsste dies ja alles gestern realisiert worden sein , an der Leistung kann es ja nicht leigen, sie steht ja anscheinend schon seit Jahrzehnten bereit.

Vor 4 Jahren hatte ich einen Toprechner gekauft. Heute steht er ungenutzt mit defekter CPU neben dem Schriebtisch und ich weine ihm keine Träne nach. Er bekommt die Woche ´ne neue CPU und ab ins Büro mit ihm. Das letzte Jahr war es nur noch eine einzige Quälerei damit zu arbeiten.

Vor 3 Monaten kam der neue. Venice @ 2,533 GHz, HT1120, DDR466 1 GB, 800 GB HDD, Geforce 6800GT@ultra. Kostete damals mit allem Zubehör 1800. Ist heute quasi überholt. DC waren damals halt zu teuer und auch heute aus meiner Sicht noch nicht wirklich nutzbar. Ähnlich ist es wohl mit der PPU.

Bei dme Update was Ende 2006/Anfang 2007 kommt werden es schon 2 GB RAM, ein Dual- oder Quadcore Prozessor welcher pro Core einen Thunderbrid mit 5 Ghz wegsteckt und einer Graka die 3-4mal so schnell ist wie meine jetzige. Warshcienlich dann auch mit Sound- und PhysX-Karte. Komisch, man braucht es ja garnet. KEine Ahnung warum das Arbeiten mit dem 1400 Thunderbird so quälend wurde, schliesslich ist Leistung zu genüge da.

Klar gebe ich keien 250 Euro für eine Physikkarte, keine 200 Euro für eine Soundkarte und keine 500 Euro für eine Grafikkarte aus.

Aber wenn dann alles zusammen 500-600 Euro kostet und dann vielleicht von der mittleren Oberklasse der gerade in Ablösung befindlichen Generation ist, bekommt man verdammt viel Leistung für relativ wenig Geld , wenn, ja wenn man richtig auswählt und keinen HELL, Mediamurks oder HALDI Fertig-Pc-Schrott kauft.

Schon mal aus dieser Sicht gesehen? Nur weil es jetzt neu ist, weil man es bis jetzt nicht brauchte, ist es nicht zwingend überflüssig oder der Preis (Empfohlener Erstverkaufspreis der Kleinserie) inakzeptabel. Wartet man halt ein Jahr oder so.

verdammt Leute, ich könnte mir auch demnächst dank eines nVidia /SiS Boarchipsatzes eine Quad Dualcore Opteron (oder gleich ein 8-way) mit 4 7800Ultra kaufen dessen 12 Elemente ich mit Kompressor Kaskaden kühle und meine dollen Spiele von SSD laden lasse, oder zumindst von 15k U/Min SCSI Raid-clsutern. Kostet nur den Gegenwert eines Eigenheimes. Was soll´s.

Wer so bekloppt ist und sich solche Monster kaufen will, zahlt entsprechendes.

Mal ehrlich, ihr experten: Vor 10, 20 Jahre, hätte man damals 2000-5000 DM nur für eine "Spielkonsole" ausgegeben? Was anderes sind eure PCs ja weitestgehend nicht für euch, zumindest wenn ich die Kommentare hier lese. Ja, der PhysX spricht primär in Retail-Markt Spieler an, aber trotzdem, wenn ich mal so grob über die CB Kommentare schaue, scheinen wir hier 80% Gamekiddies zu haben, die tatsächlich 1000-2500 Euro alle 2-4 Jahre ausgeben um irgendwelche "Kackspiele" zu spielen. *augenverdreh* Hey, vor einiger Zeit reichen 5 Mark für das Spielzeug. da fragt man hier nach dem Sinn und Unsinn von 250 Euro?

Wie gesagt, zum einen muß niemand, man kann. Und wem slebst das kann zu etuer ist, der dürfte gar keinen PC nur zum daddeln haben. Das heißt euch allen Daddelkiddies die trotz der Möglichkeit zu warten noch immer nagesichts 250 Euro stöhnen empfehle ich sich mal in die Kramsabteilung des örtlichen Warenhauses zu stellen. Dort findet ihr für <10 Euro LCD-Spiele. Ach ja und falls wer von euch dann doch den Computer für die Schule oder den (Büro)beruf braucht: Vertraut mir 199 Euro (+ Drucker, + Monitor, + Maus, + Tastatur) reichen für jeden Aufsatz, Brief, jede Recherche, jedes Referat oder sonstwas. dafür braucht es keine 1000 Euro Möhren.

Alle andere sollten sich mal diese Zeilen durch dne Kopf gehen lassen.

Auch und warum ich einen 1800 Euro Pc habe? Nicht zum spielen, das kam sekundär und amchte 100 Euro aus. Aber bei Worten wie fileserver, Videoschnitt, extremer Ungeduld und co. sollte einem schon ein Licht aufgehen.

Da dachte ich mir: Gut die Graka kostet 100-150 Euro mehr und du hast dann auch ein sauberes Spielsystem. Da musste ich nicht lange überlegen. Wenn ich denn dann mal HL² zocken will, weiß ich, dass es geht und nicht nur an der Graka krepiert.
 
Zurück
Oben