News AGEIA PhysX SDK für Vista und Linux

zwingt dich jemand dieses ding zu kaufen??? NEIN und außerdem diese kleinen lüfter sind auch nur laut wenn sie mit der entsprechenden umdrehung am werkeln sind!
ähm und lass mich mal nachdenken... wenn die grafikkarte 25 watt mehr verbraucht fällts nich ins gewicht aber ne extra karte ist der untergang?!?! ich glaube kaum das es den strom juckt ob er nun inne graka gepresst wird oder in ne extra karte.. außerdem.. 25 watt mehr bei den ohnehin heissen grafikkarten sehe ich als problem da demensprechend die kühllösungen größer und somit meist auch lauter ausfallen müssen... EIGENTOR!!
 
Zuletzt bearbeitet:
Was ich nicht verstehe ist wieso hier alle mit Nvidia/ATI Projekten bezüglich Physikberechnung kommen, sofern sich da nicht in den letzten zwei Monaten (bin zu diesem Thema nicht mehr so gut auf dem Laufenden) gewaltig etwas geändert hat sind die GPU-basierenden Lösungen doch nur in der Lage Physikalische "Effekte" zu berechnen, sind also nur dafür da das es BESSER aussieht, die richtigen Physikkarten (PPUs) sind doch in der lage die Physik korrekt zu berechnen (Kollision, Deformierung ect, und das bei etlichen Objekten gleichzeitig).

Ist zu vergleichen mit gescripteten Ereignissen in Spielen und durch die KI bestimmte Ereignisse. Ersteres ist halt Vorprogramiert, die Physikkarten berechnen für alles was du in dem Spiel anstells die korrekte Physik.

Wenn ich falsch liege bitte gerne richtigstellen!

@Toppik:
Ich finde es gut wenn solche neuerungen wie die Physikberechnungen unterstützt werden, gibt im gegensatz zu immer höher aufgelösten Texturen endlich mal wieder mehr Atmosphäre!
 
ich gebe dir vollkommen recht.. aber das was du kapiert hast ist anscheinend so schwer zu verstehen das viele nichtmal nachdenken bevor se was posten.. es war und wird immer so bleiben.. ich will eine INTERAKTIVE welt in der meine handlungen die dementsprechenden folgen nach sich ziehen und nich einfach nur n feuerwerk an dingen die dann im endeffekt nur heisse luft nach sich ziehen ;)
 
Ich bin jetzt nicht unbedingt ein Befürworter der Ageia-Karte...

Aber eins muss klar sein: Wenn Physik, dann richtig. Ob das jetzt mit einer Zusatzkarte, und/oder einem CPU-Core geschieht, völlig egal.

Effekthascherei, oder gar echte Physikberechnungen auf die GPU auszulagern halte ich aber für mehr als kontraproduktiv. Die Grafikkarten bekommen durch die zusätzlichen Physikberechnungen bzw. deren Auswirkungen auf die 3D-Welt schon genug zusätzliche Last aufgebrummt, da bleibt keine Kapazität mehr für Physik.
 
Towatai schrieb:
zwingt dich jemand dieses ding zu kaufen??? NEIN und außerdem diese kleinen lüfter sind auch nur laut wenn sie mit der entsprechenden umdrehung am werkeln sind!
ähm und lass mich mal nachdenken... wenn die grafikkarte 25 watt mehr verbraucht fällts nich ins gewicht aber ne extra karte ist der untergang?!?! ich glaube kaum das es den strom juckt ob er nun inne graka gepresst wird oder in ne extra karte.. außerdem.. 25 watt mehr bei den ohnehin heissen grafikkarten sehe ich als problem da demensprechend die kühllösungen größer und somit meist auch lauter ausfallen müssen... EIGENTOR!!
Es ist durchaus ein Unterschied, ob man einen großen Verbraucher oder einen großen und noch einen kleinen Verbraucher hat :rolleyes:

Beispiel? Verkabelung. Ein extra Netzteilstrang geht nur für diese kleine Teil drauf...

Beispiel 2? Kühlung. Eine Grafikkarte ist relativ leicht (z.B. durch Lufttunnel) auf Temperatur zu halten. Für eine PPU Karte ist das aber natürlich zu aufwendig, also haben die nen kleinen Nervkühler druafgesetzt, ein Passivkühler reicht eben nicht aus. Also entweder den Lüfter ertragen oder den Lüfter in Verbindung mit einem Lufttunnel (verbraucht 2 Slots) drosseln. Alles andere als optimal.

Beispiel 3? Wasserkühlung. Extra Kühlkörper für die PPU Karte, das ganze verlängert zudem dne Kreislauf.
 
gerade durch das konzept des erweiterns ist der pc so erfolgreich geworden..wieso sollten ungenutze anschlüsse am netzteil ungenutz bleiben!?! hat man dadurch nachteile?? und jetzt komm bitte nicht damit das der luftstrom dann nich mehr optimal ist... wenn man nach deinem prinzip vorgeht hätte jeder ne konsole zuhause... zum thema passivkühlung.. wenn man es heutzutage schafft mit recht einfachen mitteln ne einigermaßen aktuelle graka passiv zu kühlen die bedeutend mehr an energie in hitze umwandelt dann ist es aus technischer sicht und dem gesunden menschenverstand absolut KEIN problem diese niedliche kleine kärtchen passiv zu kühlen.. naja aber ich rede eh gegen wände... warum tipp ich hier eigentlich..:freak: :D
 
@vom Verbrauch macht es keinen Unterschied, ob der Physxchip auf der Graka sitzt oder auf der Physikkarte.

Was macht schon ein zusätzliches Kabel aus (wenn man es überhaupt braucht, 75W durchs Mainboard reichen)

Eine Hitzquelle ist schwerer zu kühlen als zwei kleinere, da hilft auch kein Lufttunnel (?) oder was auch immer du nutzt.
Denn die Physxkarte könnte man sehr einfach passiv kühlen, aber aktiv gekühlte Karten sehen einfach Leistungsstärker aus (und sind billiger).

Wasserkühlung: Wenn man über 300€ für eine gescheite Wasserkühlung ausgibt, dann verkraftet man auch die popeligen 20€-30€ für die Physxkarte als Kanalkühler
 
Wenn ich so höre von wegen Graka als Physikberechnung einsetzen...denkt ihr nicht, dass Grafikkarten schon genug zu tun haben mit der Grafikberechnung? In einem High-End Computer aka Core 2 Duo ist die Graka der Bremsklotz im System...auch wenn man ne X1950XTX oder ne 7950 irgendwas drin hat. Man kann sich auch 2 reinklopfen, es ändert gar nichts dran....

Ich finds totalen Blödsinn, die Grakas mit solchem Mist zu belasten. Und bevor ich mir ne 2te Graka reinhaue, überleg ich mir ehrlich obs so ne PPU nicht auch macht. Die produziert nämlich weniger Hitze und braucht weniger Strom wie ne 2te GPU. Aber bevor so ne Karte nicht in vielen Spielen unterstützt wird werd ich mir sowieso keine kaufen. Immerhin haben sie sie jetzt auch als PCIx rausgebracht, wer hat heutzutage schon einen PCI Steckplatz frei :D
 
was sich letztlich durchsetzt (physik durch graphikkarte, physik durch zusatzkarte - oder physik durch quadcore-cpu) steht wohl derzeit noch in den sternen. man darf aber gespannt sein. ich fürchte nur, dass sich (wie eigentlich immer) nicht das (auch für den kunden) beste system durchsetzt, sondern jenes, für das das meiste marketinggelbubber abgesondert wird.
 
theo.juhl schrieb:
Wenn ich falsch liege bitte gerne richtigstellen!
Gerne.

Du hast recht, wenn es um DX9 geht. Dort ist nur Effekt-Physik möglich.

Ab DX10 wird das aber anders. Dort kann echte interaktive Physik berechnet werden, da die Graka direkten Zugriff auf den Hauptspeicher des Systems hat und somit Daten mit der CPU austauschen kann.

So hat die Graka sogar eine geringere Latenzzeit, als die PyhsX-Karte.

Beim PhysX läuft die Kommunikation so ab:

  • Die CPU übermittelt neue Szeneriedaten an die PPU
  • Die PPU berechnet die Positionen der Objekte und liefert das Ergebnis zurück an die CPU
  • Die CPU liefert dann die fertig berechnete Szene an die GPU
  • Die GPU zeichnet das Ergebnis

Bei der Graka kann man sich den Schritt mit dem zurückliefern der Daten an die CPU sparen:

  • Die CPU übermittelt neue Szeneriedaten an die GPU
  • Die GPU berechnet die Positionen der Objekte und zeichnet sofort das berechnete Ergebnis.
  • Die GPU übermittelt die neuen Szeneriedaten an die CPU.

So wird auch immer genau das dargestellt, was auch in der Physikengine gespeichert ist. Bei der PPU wird immer der vorletzte Stand gerendert, während die Physikengine schon eine Szene weiter ist und Usereingaben entgegennimmt, die dieser noch gar nicht auf dem Bildschirm sieht.

Durch weitere Latenzen, wie sich durch Tripplebuffering, VSync oder sogar durch Framebuffer in den TFTs zustande kommen, verstärken sich diese Effekte noch und es entsteht ein immer größer werdender Zeitunterschied zwischen dem aktuellen Input des Users und dem Output auf dem Schirm.

Von daher ist es schon sinnvoll, diese Laufzeitunterschiede so gering wie möglich zu halten und da haben die Graka nunmal einen Vorteil gegenüber einer PPU.


Ansonsten ist eine GPU aber auch nicht zu verachten, wenn es um Physikberechnungen geht. Da deren Recheneinheiten genau die selben Berechnungen durchführen, wie sie für physiklische Berechnungen benötigt werden kann man diese auch wunderbar dafür nutzen. Die Unified Shader helfen auch dabei dies schön einfach zu realisieren.

Das Ganze klappt dann auch ohne zusätzliche Graka, die einzig und allein für Physikberechnungen zuständig ist, sondern komplett auf einer Graka. Das Stichwort lautet GPGPU. In Zukunft wird die GPU für weit mehr verwendet, als nur für Grafikberechnungen.

Von daher wird es der PhysX schon recht schwer haben gegen die neuen DX10-Karten anzukommen.
 
Zuletzt bearbeitet:
@30:

hört sich alles verlockend an, wenn da nicht die tatsache wäre, das die Grafikkarte momentan schon hoffnungslos überlastet ist, und der zustand sich in einiger zeit nicht bessern wird... ich würds super finden, wenn ageia hier irgendwie den fuß in die tür bekommt, und eventuell sogar in einem DirectX berücksichtigt wird.
 
Schöne Erklärung Noxon, aber denkst du nicht, dass Grakas momentan schon genug belastet mit der Grafikberechnung sind? Imho ist momentan die Grafikkarte der Flaschenhals bei Spielen, auch wenn es ein High-End Modell is...und ich bin nicht dafür, der Graka noch mehr Aufgaben aufzuhalsen, wenn diese schon am Anschlag arbeitet :( das resultiert dann nur in geringeren Fps :rolleyes:
 
Es kann ja dem User überlassen werden, wie er die Leistung seiner Karte nutzt.

Manche verwenden lieber hohe Auflösungen, andere nehmen lieber höheres AA und in Zukunft kann man dann halt auch noch entscheiden, in welchem Maße man die Physikberechnungen auf der Graka durchführen will oder ob sie zum Beispiel ausschließlich auf der CPU laufen.

Die Graka soll ja nur zur Unterstützung dienen und so kann sich jeder seine Lieblingssettings auswählen. Wer eh 60 fps erreicht, der wird froh sein, wenn er eine komplexere Physikumgebung bekommt und dabei nur ein paar FPS für Opfern muss.

Außerdem belasten die Physikberechnungen die Grakas nur sehr gering. nVidias Havok-FX führt die ganze Physik praktisch ohne Einbußen in der Grafikleistung aus, da sie hauptsächlich die ungenutzten Resourcen verwenden, die durch die PS/VS Trennung unweigerlich entstehen.

Solange sich die Physik in Grenzen hält sollte das auf die Grafikleistung nur geringe auswirkungen haben. Stattdessen haben wir aber ein vielfaches an CPU-Leistung gespart, die wir unter anderem benötigen, wenn wir mehr Objekte darstellen wollen.

Den Rest kann man dann für eine bessere KI oder ähnliche Dinge verwenden.

Es geht halt nur um die intelligente Verteilung der Aufgaben. Jeder Prozessor soll halt das berechnen, was er am Besten kann.

Das Handling, Gameplay und die KI erledigt die CPU, die Grafik und die Physik die GPU und die Soundkarte kümmert sich um den Ton.

Die von der GPU berechneten Sounddaten werden dann nur noch an die Soundkarte zum Postprocessing und zur Ausgabe geschickt.


Übrigens wäre das auch noch eine Anwendung für DX10 Karten. Echter 3D-Sound. Anstatt Licht in unterschiedlichen Farben zu verarbeiten wird einfach Schall in unterschiedlichen Frequenzen berechnet.

Das ist für die GPU ein und das selbe und kann ohne viel Rechenaufwand durchgeführt werden, da die Aufflösung wirklich nur sehr grob sein muss.

So können akustische Effekte exakt Anhand des tatsächlichen Gittermodells berechnet werden und müssen nicht mehr per EAX-Effekt simuliert werden. Mit frei programmierbaren Shader-Programmen kann man so praktisch alle möglichen Effekte simulieren.

Dann beeinflussen die Schallwellen auch Partikelsysteme und Explosionen führen tatsächlich dazu, dass sich die Partikel durch die Druckwelle bewegen.

Schöne neue DX10-Welt. :)
 
.....Außerdem belasten die Physikberechnungen die Grakas nur sehr gering. nVidias Havok-FX führt die ganze Physik praktisch ohne Einbußen in der Grafikleistung aus, da sie hauptsächlich die ungenutzten Resourcen verwenden, die durch die PS/VS Trennung unweigerlich entstehen....


Havok-FX ist keine reale Physikberechnung sondern nur so aussehen als ob!!!!!!!!!!!!!!!!!!!!! Irgendwie scheint das keine sau zu kapieren:freak: :freak: :freak: :freak:
 
Towatai schrieb:
Havok-FX ist keine reale Physikberechnung sondern nur so aussehen als ob!!!!!!!!!!!!!!!!!!!!! Irgendwie scheint das keine sau zu kapieren:freak: :freak: :freak: :freak:
Was soll daran nicht real sein? Bloß weil die GPU ihre Ergebnisse nicht mit der CPU teilen kann handelt es sich trotzdem noch um eine Physikberechnung, die Rechenleistung benötigt.

BTW: Multiple Satzzeichen ;)
 
Dass die Physikberechnung bei der GPU kaum Leistung kosten soll das glaub ich erst wenn ich Vergleichstests habe. Is doch wie wenn die CPU die Physik berechnen soll: geht zwar, aber ist nie so effektiv wie eine PU, die nur für diesen Zweck entwickelt wurde :rolleyes:
 
Die zentralen Recheneinheiten der Graka funktionieren auf die selbe Weise wie die der PPU. Die führen beide ganz normale MADD Operationen aus. Pro Takt kann der PhysX 16 solcher Operationen ausführen. Eine GeForce 7900 kann, wenn sie denn ausschließlich für Physikberechnungen genutzt würde, 48 solcher Berechnungen durchführen.

Hinzu kommt, dass der PhysX nur mit 250 MHz getaktet ist und die 7900 mit bis zu 650 MHz. Eine Graka ist in der Hinsicht also um ein vielfaches leistungsfähiger als die PPU.

Das die PPU letztendlich doch besser ist liegt daran, dass sie doch noch etwas spezialisierter ist als die GPU. Was bei Physikberechnungen sehr wichtig ist, dass ist eine irrsinnig hohe Speicherbandbreite und ein Speicherzugriffsverfahren, was darauf optimiert ist kleine Datenmengen verteilt zu lesen und zu schreiben.

Sowas hat die PPU natürlich und die Graka nicht, da dies für Grafikanwendungen eher schädlich wäre.

Die PPU ist also trotz der scheinbar schlechteren Rechenleistung stärker als eine Graka, aber trotzdem sind die Grakas nicht zu verachten und wenn man nur einen Teil der Rechenleistung der Grakas verwendet merkt man die Physikberechnungen auch gar nicht.


Der Grund warum die Grafikleistung durch die zusätzlichen Physikberechnungen nicht so stark leidet ist der, dass für die Physikberechnungen immer die Shader verwendet werden, die gerade nicht benötigt werden.

Bei normalen Spielen ist die Graka nämlich nie völlig ausgelastet. Entweder werden alle Pixelshader voll ausgelastet und Teile der Vertexshader haben nichts zu tun oder umgekehrt. Ein gewisser Teil der Shadereinheiten wartet immer vor sich hin.

Genau diese ungenutzten Resourcen verwendet Havok-FX um dort die Physikberechnungen durchzuführen.


Alles in allem betrachtet wird es der PhysX schwer haben. Besonders gegenüber den DX10 Karten schrumpfen seine Vorteile doch gewaltig.
 
Zuletzt bearbeitet:
@noxon
Bei der 7900 hast du noch ein paar Sachen vergessen, du hast 1. Die Vertexshader vergessen, damit kommt man dann auf 64 Operationen, außerdem gibt es für jeden Vektor/jede Farbe eine eigene Recheneinheit, also mal 4 = 256 Operationen pro Takt.
Rechenbeispiel aus der c't 20/05
 
Zurück
Oben