News : Nvidia führt GeForce PhysX ein

, 365 Kommentare

Vergangenen Februar übernahm Nvidia das angeschlagene Unternehmen Ageia, welches sich auf die Entwicklung von Physik-Beschleunigerkarten (PPU) spezialisiert hatte. PhysX-Effekte konnten bislang über eine CPU oder die schnellere PPU berechnet werden. Nvidia lässt die PPU jedoch auslaufen und wird die Berechnung über eine GPU ermöglichen.

Mit der Einführung von GeForce PhysX ist der Tod von Ageias PPU nun also besiegelt. Durch neue Treiber, den GeForce 177.39 und den PhysX 8.06.12, ermöglicht Nvidia erstmals die Berechnung von PhysX über eine Nvidia-GPU, welche durch ihre hohe Anzahl von Shader-Prozessoren wesentlich besser hierfür geeignet ist, als eine gewöhnliche CPU. Offiziell erlauben die Treiber zunächst eine Unterstützung von GeForce PhysX nur mit einer GeForce GTX 280 und GTX 260 sowie einer GeForce 9800 GTX und der frisch angekündigten 9800 GTX+. Schon in der kommenden Woche soll der Support jedoch für die kompletten Familien der GeForce 8 und 9 angekündigt werden.

Nvidia GeForce PhysX
Nvidia GeForce PhysX

Bei den Kollegen von Expreview finden sich erste Ergebnisse, die sowohl die Taktskalierung zwischen einer GeForce 9800 GTX (675/1675/1100 MHz) und der schnelleren 9800 GTX+ (738/1836/1100 MHz) im 3DMark Vantage als auch den Leistungsvorteil einer GPU gegenüber einer CPU in Unreal Tournament 3 aufzeigen sollen. Während im 3DMark Vantage allerdings nur der CPU Test 2 PhysX unterstützt, kamen im Test mit Unreal Tournament 3 ausschließlich Maps mit PhysX-Unterstützung, unter anderem aus Ageias PhysX-Mod-Kit, zum Einsatz. Der 3DMark Vantage wurde im relativ niedrig auflösenden Performance-Preset durchlaufen, um die CPU-Last hoch zu halten. Die übrigen Grafiktests relativieren das Ergebnis zwar etwas, doch liegen die Ergebnisse mit 7.081 beziehungsweise 7.892 Punkten deutlich über den Werten, die eine GeForce 9800 GTX mit gut 6.000 Punkten üblicher Weise erreicht. In entsprechenden Anwendungen, wie den ausgewählten Maps von Unreal Tournament 3, kann sich GeForce PhysX deutlich in Szene setzen.

3DMark Vantage (Performance)
Angaben in Punkten
    • GeForce 9800 GTX+
      7.892
    • GeForce 9800 GTX
      7.081
Unreal Tournament 3 (PhysX-Mod)
  • DM-HeatRay:
    • CPU-PhysX
      38,6
    • GPU-PhysX
      83,8
  • CTF-Tornado:
    • CPU-PhysX
      27,8
    • GPU-PhysX
      63,1
  • CTF-Lighthouse:
    • CPU-PhysX
      20,7
    • GPU-PhysX
      66,5
365 Kommentare
Themen:
  • Sebastian Pesdicek E-Mail
    … hat von Oktober 2007 bis Dezember 2009 Artikel für ComputerBase verfasst.

Ergänzungen aus der Community

  • cyrezz 20.06.2008 16:51
    Also hier scheinen wieder so viele mit Unwissenheit um sich zu schmeißen und Äußerungen zu tätigen wie "dann muss ich mir doch ne GTX 280 kaufen"... lest ihr eigentlich auch andere News? Anscheinend nicht, denn es gab im April eine sehr wichtige diesbezüglich. Es kann eigentlich nur alle freunen, dass durch die Übernahme Ageias von nVidia das Physikgeschäft zu einem Höhenflug verhelfen kann. Diese PhysX Technik soll nämlich allen verfügbar gemacht werden, die daran interessiert sind.
  • DonFab 20.06.2008 16:58
    Hat ATI eigentlich auch ein entsprechendes Projekt laufen oder geplant? Dome87
    Ja, es wurde von AMD angekündigt das die hd 4 Serie Pysik berechnen werden kann. Gerüchten zufolge über HAvok von Intel, es gibt auch Gerüchte das AMD sowohl Havok als auch PhysiX implentieren möchte. ATI könnte also auch hier wieder seinen Technikvorsprung erweitern ;)

    Es wird interresant sein wie viel GPU Leistung dadurch verloren gehen wird. Der GT200 scheint ja extrem viel Leistung über CUDA und somit auch PhysiX zu besitzen.
  • Sebastian 20.06.2008 17:48
    Ich hab mal auf die Schnelle den 3DMark Vantage mit einer GeForce 8800 GT getestet. Hierzu muss lediglich die .inf-Datei des GeForce 177.39 etwas erweitert werden.

    Testsystem:


    • />
    • CPU: Intel Core 2 Duo E4300 @ 3,15 GHz
    • RAM: 2 GB DDR2-700
    • Mainboard: abit AW9D-MAX (Intel i975X)
    • Grafikkarte: EVGA GeForce 8800 GT 512 MB (600/1500/900 MHz)
    Treiberversionen:

    1. />
    2. GeForce 175.16 / PhysX 8.04.25
    3. GeForce 177.39 / PhysX 8.06.12

    Ergebnisse:


    1. />
    2. P4462 3DMarks (5313 CPU / 4236 Graphics)
    3. P6068 3DMarks (23240 CPU / 4868 Graphics)
    Wie man den folgenden Balkendiagrammen aus Futuremarks Online Result Browser entnehmen kann, bringt der GeFroce 177.39 insgesamt eine verbesserte Performance mit sich, aber das ist nichts im Vergleich zu den Werten, die im CPU Test 2 erreicht werden, welche sich um den Faktor 10 unterscheiden, je nach PhysX-Support.

    http://www.computerbase.de/forum/attachment.php?attachmentid=100789&d=1213977197
  • Wintermute 20.06.2008 18:29
    Das Problem ist, dass Havok nicht auf Hardware aufbaut. Und da liegt auch der Hund begraben. Wirklich komplexe Berechnungen kann man damit knicken, da nur die CPU benutzt wird, welche bei vielen Objekten einfach abkratzt.
    Ich würde mich sehr über eine flächendeckende Hardwarelösung freuen, allerdings nicht auf Kosten der Grafikbeschleunigung, da beides miteinander zusammenhängt. Simuliere ich einen Haufen physikalisch korrekt bewegender Objekte oder zerblase ein Haus in seine Einzelteile, dann brauche ich auch deutlich mehr Dampf seitens der Grafikkarte. Jeder Ziegel einzeln will halt auch dargestellt werden. *grübel*

    Eine gute Möglichkeit wäre es, einfach eine low- oder midrange Karte um die 100€ entweder per SLI/CF zu koppeln und die Berechnung auszulagern, oder eben über PCI Express gehen. Da würde z.B. SLI dann auch mal nicht nur fürs absolute Highend Sinn machen.

    //edit:
    Kann man Hartware.de glauben, soll es ja gehen:
    Zum Einen wird eine einzelne GeForce GTX 280 in der Lage sein, die Physikberechnungen parallel zur Grafikdarstellung zu berechnen. Sie sei leistungsfähig genug. Zum Anderen kann man bei einem System mit zwei oder drei Grafikkarten eines der Modelle für die Physikberechnungen abstellen. Mindestvoraussetzung: es muss sich um eine GeForce 8 Grafikkarte handeln. Man braucht aber nicht zwingend ein SLI-fähiges Mainboard mit nForce Chipset. Die Kommunikation läuft über den PCI Express Bus, es können also auch Dual-VGA-fähige Mainboards mit Chipsätzen von Intel oder AMD eingesetzt werden.
    Das ermöglicht dem Anwender, der beispielsweise eine GeForce 8600 Grafikkarte besitzt, beim Neukauf einer stärkeren Grafikkarte das ältere Modell künftig für Physikbeschleunigung einzusetzen, wenn ein Mainboard mit zwei PCIe Graphics Steckplätzen vorhanden ist.
    http://www.hartware.de/news_45015.html

    Eine 8600 stampft immer noch jede CPU in den Boden, was Physikberechnung angeht. Und kostet nix mehr.
  • Bitcatcher 20.06.2008 19:18
    Downloads:

    GF 177.39:

    Vista x64: http://www.vaguetech.com/foru…/downloads.php?do=file&id=236

    Vista x86: http://www.vaguetech.com/foru…/downloads.php?do=file&id=233

    XP 64: http://www.vaguetech.com/foru…/downloads.php?do=file&id=232

    XP 32: http://www.vaguetech.com/foru…/downloads.php?do=file&id=231

    Die entsprechend gemoddeten inf-Dateien: http://www.vaguetech.com/foru…/downloads.php?do=file&id=235

    NVIDIA PhysX v8.06.12: http://www.vaguetech.com/foru…/downloads.php?do=file&id=234


    Funktioniert übrigens einwandfrei mit einer 8800 GTS 512. Siehe auch:

    http://www.computerbase.de/forum/showthread.php?t=434014


    P.S. Wen interessiert Havoc ohne Hardwarebeschleunigung durch die GPU?
  • Sheeep 20.06.2008 19:26
    Irgendwo bei Gamestar stand das nV der Meinung ist, das es für Ati kein Problem darstellen sollte CUDA in ihre GPUs zu integrieren, suche grad den Link...
    Aber da steht auch das unklar ist ob ATI sich gegen CUDA entscheidet oder mit CUDA und Havok zweigleisig fährt, sobald es genau technische Details zur 4850 gibt werden wir mehr wissen....
    http://www.gamestar.de/hardwa…/vermischtes/1946203/amd.html
  • scyro 20.06.2008 20:23
    Hab eben die treiber (177.39) unter Vista x86 mit meiner 8800GTS 640MB getestet.
    Im Nvidia PhysX Treiber Menü bekomm ich die Meldung kein PhysyX Prozessor installiert.

    Scheint als würde der G80 das noch nicht unterstützen :(
  • Bitcatcher 20.06.2008 20:28
    @scyro/Darksim: Exakt, die G80 werden noch nicht unterstützt.
  • noxon 21.06.2008 19:24
    erstmal in dem Diagramm steht "CPU-PhysX" sowas gibts doch garnicht... ZeroBANG
    Hier liegt das Missverständnis wohl eher bei dir. PhysX ist kein Feature oder sowas, sondern eine Physik-Engine, die ihre Berechnungen auf der CPU und auf der GPU durchführen kann.
    CPU-PhysX ist also schon eine korrekte Bezeichnung.


    zwar ist es gut und richtig das die cpu langsamer rechnet und die grafikkarte da vorteile aufweist, doch was ist, wenn die grafikkarte schon mit den eigentlichen grafischen berechnungen überforder ist? - dann kann die grafikkarte nicht noch zusätslich physikberechnungen durchführen. masterbratak
    Du musst aber auch das Verhältnis im Auge behalten. Eine GPU ist nicht nur etwas besser als eine CPU, sondern gleich das dutzendfache.
    Die kürzlich von Intel vorgestellte Physikdemo mit 50.000-60.000 Partikeln lief auf einem Nehalem Quad-Core (virtuell 8 Cores) lediglich mit 15-20 fps.
    nVidia hat eine ähnliche Demo mit 65.000 Partikeln auf einer 9800 GTX mit 300 fps zum laufen gebraucht und die GTX 280 soll mit ca. 600 fps zu Werke gehen.

    Es ist also nicht so, als ob die Physikberechnungen die Graka groß belasten würden. Selbst bei sehr komplexen Berechnungen gehen wahrscheinlich gerade mal 1-2% der Rechenleistung für die Physik drauf.
    Im Gegenzug dazu wird die CPU aber deutlich entlastet und kann so wichtigere Dinge übernehmen. Das wird auch nötig sein, denn je mehr Objekte zu verwalten sind (und das sind in physikintensiven Spielen nicht wenig Objekte), desto mehr muss die CPU für die Verwaltung dieser Objekte herhalten.

    Das greift das Eine also in das Andere. Die GPU entlastet die CPU um umfangreichere Physiksimulationen zu berechnen und die CPU nutzt ihre frei gewordenen Reserven dann dazu diese Szenen auch zu verwalten.


    havok ist die zukunft!- es nutzt ihren prozessor optimal aus-(nach intel/amd)!.
    Und die PhysX Engine tut das nicht?

    Wenn ATi dann noch irgendwann die PhysX-Engine per Hardware beschleunigt, was ich hoffe, dann sieht's für Havok aber schlecht aus. An deren Stelle würde ich mich ganz schnell darum bemühen die Engine auch mittles CUDA auf nVidia Karten zu beschleunigen.

    Das größte Problem, das Havok jetzt hat ist, dass die PhysX Engine heute schon einsatzfähig ist und erste Ergebnisse vorzeigen kann. Es gibt auch schon eine Menge Spiele, die mit Karten der G80 Serie jetzt noch nachträglich beschleunigt werden können. Zugegeben. Es sind keine wirklichen AAA Titel dabei, aber ein kleines physikbasiertes Puzzlegame kann genau so viel Spaß machen. Meistens machen diese keinen Physics-Games mehr Spaß als ein 0815 Ego-Shooter.

    So manch einer wird sich überlegen, ob er jetzt schon hardwarebeschleunigte Physikgames spielen möchte oder erst noch eine unbestimmte Zeit lang warten muss um in den Genuss zu kommen.
    Denn wer weiß, wie lange es noch dauert, bis die ersten Spiele mit Havok-Hardwarebeschleunigung erscheinen. Das kann noch lange dauern und so lange hat nVidia die Möglichkeit die PhysX Engine zu etablieren. In nächster Zeit wird man eine Menge kleiner Games finden, die diese Engine verwenden, selbst wenn es nur Sceeensaver und kleine Spielereine sein werden. Wenn Havok sich jetzt nicht beeilt, dann hat PhysX einen nur schwer einholbaren Vorsprung herausgeholt und sich als Quasi-Standard etabliert.

    Es fängt ja schon damit an, dass die geile Animationsengine, die in GTA IV zum Einsatz kommt die PhysX-Engine nutzt und Spiele wie Backbreaker hervorbringen wird.
  • noxon 21.06.2008 20:48
    das hört sich von dir so leichtgesagt an. da würde ich gerne verlässliche quellen dazu haben. wenn es denn wirklich so ist, dann wäre der gewinn für physx sicher! masterbratak
    Das kommt natürlich immer darauf an, was man mit "sehr komplex" meint.
    Ich meine damit Berechnungen, wie sie heute in den top Spielen, wie zum Beispiel Crysis, vorkommen. Wenn man diese Berechnungen auf der Graka durchführen würde, dann würde man sicherlich gar nichts davon mitkriegen. Wahrscheinlich wird die Framerate aufgrund der CPU Entlastung sogar noch ansteigen.


    Eine Quelle kann ich dir im Moment nicht geben, aber man braucht ja nur mal die Partikeldemos von nVidia und Intel vergleichen.
    Mit der kompletten Rechenleistung, eines Prozessors der nächsten Generation die erst Ende desJahres erscheint kann man eine 60.000 Partikeldemo mit 15-20 fps simulieren und Intel ist sogar noch super stolz darauf. Verwendet man die komplette Rechenleistung einer GTX 280 für so eine Demo erreicht man 600 fps.
    Natürlich sind das nur Demos, die nichts mit Spielen zu tun haben, aber es zeigt doch schon einmal sehr gut wie stark die GPU der CPU in diesem Feld überlegen ist.

    Ein weiterer Beweis dafür ist ja auch Sebastians Test. Ein E4300 @ 3,15 GHz schafft 7,5 Operationen pro Sekunde, während eine 8800 GT 93,5 Operationen pro Sekunde schafft.

    Wenn man jetzt bedenkt, das Spiele nur einen Bruchteil der CPU Leistung tatsächlich für die Physikberechnungen verwenden, dann kann man sich vorstellen, wie gering die Belastung für die GPU ausfallen wird.

    Nehmen wir mal an 20% der CPU Leistung wird momentan bei einem Spiel für die Physikberechnung verballert. Laut den Messergebnissen von Sebastian ist die 8800 GT ca. 13 mal effektiver, als die CPU was also zur Folge hat, dass die GPU bei den gleichen Berechnungen nur 1,5% ihrer Leistung aufbringen müsste. (Nur mal so als ganz grobe Milchmädchenrechnung)

    Natürlich werden in Zukunft aufwändigere Physiksimulationen mehr Rechenleistung der GPU in Anspruch nehmen, aber ich denke mal, dass man das auch alles in den Spieleoptionen einstellen kann. Das ist ja bei Grafik-Settings momentan nicht anders.
    Wer großen Wert auf eine gute Physik legt stellt die Settings auf High und dafür einige Grafik-Features herunter und wer mehr Wert auf Grafik legt, der muss halt etwas auf Physikeffekte verzichten. Kann ja jeder machen, wie er will.