News : Intel und AMD/ATi mit Havok gegen Nvidia

, 62 Kommentare

Mit Vorstellung der PhysX-Karten im Jahr 2005 (ComputerBase-Test) trat der ambitionierte Hersteller Ageia tollkühn der bisher favorisierten Software-Lösung aus dem Hause Havok entgegen – und scheiterte beim Endkunden. Erfolg hatte man dennoch vorzuweisen, als Nvidia das Unternehmen Anfang 2008 übernahm.

Ohne Frage, PhysX hatte großes Potential, krankte aber an der zwingend benötigten Physikbeschleunigerkarte. Ein Manko, das mit der Übernahme durch Nvidia der Vergangenheit angehört, denn in Zukunft sollen GPUs von Nvidia in der Lage sein, die Aufgaben der Zusatzkarte zu übernehmen. Das Ende von Havok und ein Siegeszug für PhysX?

Nicht unbedingt, denn PhysX wird nur von Nvidia-Karten beschleunigt werden. Und das andere Grafikkarten-Lager, namentlich AMD/ATi, gab nun bekannt, zusammen mit Havok an der Optimierung physikalischer Effekte durch AMD-Produkte, sprich CPUs und Grafikkarten, zu arbeiten. Noch pikanter wird die Angelegenheit, wenn man beachtet, dass Intel Havok im September 2007 übernommen hat. So heißt es ab sofort: Intel und AMD/ATi mit Havok gegen Nvidia und PhysX.

62 Kommentare
Themen:

Ergänzungen aus der Community

  • Dey 12.06.2008 13:58
    Ich nehme mal an, dass Spieleprogrammierer bei dieser Entwicklung für beide Physikberechnungsmodelle separat programmieren und optimieren müssen oder wird es zukünftig nur exklusive Spiele mit Physik-unterstützung für einen der beiden Konkurrenten geben?
  • QwertyQwertz 12.06.2008 14:05
    Wenn ich an die Intelboards mit deren eigenen Chipsätzen denke, dann ist eine "Affinität" zu ATI (Crossfire- und nicht SLI-Fähigkeit) ja schon Realität.
    Außerdem ergeben sich in diesem Business ohnehin immer und überall strategische Allianzen auch mit ansonsten konkurrierenden Herstellern
  • Orbmu2k 12.06.2008 14:21
    Da NVIDIA PhysiX auch nur per CUDA implementiert hat dürfte sich NVIDIA da gar keine so grossen Sorgen machen ... dann kaufen sie eben auch Havok Lizensen und unterstützen dann beides.

    Das mit DX11 schon ein Physics Layer kommen soll stimmt nicht, aktuell sind da GPGPU und Tesselation im Gespräch aber nix von Physik.

    PhysiX ist allerdings für die kleineren Spiele-Entwickler das attraktivere Framework weil es hier keine Lizensierungskosten gab. Ob sich das mit der Übernahme durch NVIDIA nun geändert hat weiss ich nicht so genau.

    Am Ende find ich es eh egal ... ich verplempere doch nicht meine Grafikpower mit Physikberechnungen die meine sich sonst zu Tode langweilende CPU auch übernehmen kann.
  • quotenkiller 12.06.2008 14:57
    Fang jetzt nicht mit diesem Fanboy Mist an! Ich versuche hier ne sachliche Diskussion zu führen und kann AMDs Entscheidung so garnicht nachvollziehen, wegen besagten Gründen.

    Diese Entscheidung wird mal wieder Inkompatiblitäten für uns Endverbraucher verursachen! Ne CPU sollte lieber komplexere KI berechnen, weil sie dafür meiner Meinung nach besser geeignet wäre. Somit hätte die CPU mehr als genug zu tun! Wenn die GPU genug Leistung hat, kann sie auch noch nebenbei eben Physik berechnen. nWarrior
    eben weil amd momentan doch am "unteren ende der nahrungskette" ist, ist es für amd sehr wichtig, in solchen kooperativen mit den grossen (intel in diesem fall) zu stehen. intel ist es schei.... egal, ob amd/ati mit im boot sitzt oder nicht, ob die für sowas nun 5millionen oder 10millionen dollar stemmen müssen, ist egal. auch, dass das projekt dann evtl etwas länger dauert, da die amd/ati leute fehlen ist denen egal. wichtig ist nur, dass das ergebnis stimmt. die marktdurchdringung dieses endproduktes ist für intel auch relativ leicht.
    nvidia hat schon auf ein eigenes pferd gesetzt und da wird es für amd schwer bis unmöglich noch mit aufzuspringen. die alternative wäre also für amd/ati, nun als dritter ein eigenes projekt aus dem boden zu stampfen. das dumme ist nur, dass sie dann nicht einen konkurenten, sondern 2 konkurenten hätten, die beide besser die werbetrommel rühren und vor allem auch über erheblich mehr geldmittel verfügen und besser andere firmen (spielehersteller und betriebssystemhersteller) beeinflussen können. das was amd macht ist der einzige richtige schritt, um im bereich physikbeschleunigung nicht komplett abgehängt zu werden, oder gar für teuer geld irgendwelche lizenzen zu kaufen.

    nur weil sich firmen auch mal vor gericht begegnen, heisst das nicht, dass sie nicht zusammen arbeiten. vor allem nicht, wenn es sich dabei zum teil um tochterfirmen (wie in dem fall hier) geht. würden firmen mit so einem kindergarten habitus durch die lande marschieren, dann würden viele firmen oftmals doppelt und dreifach draufzaheln, nur um das gleich zu spät zu erreichen.
  • Neocroth 12.06.2008 15:00
    Ich sehe hier einen ganz klaren Vorteil für Havok - es läuft unabhängig auf jeder x86 Plattform, damit ist es ganz klar zu bevorzugen aus der Sicht des Entwicklers, da er nicht auf veränderliche Hardware Rücksicht nehmen muss. Weiters besteht die Möglichkeit, dass ATi die Havok-Engine auf Stream adaptiert bzw. Intel beim Larrabee, die Engine also GPU-beschleunigt anbietet. nVidia hingegen kann nur auf CUDA zurückgreifen, welches ja nur von einer Minderheit der im Umlauf befindlichen Systeme unterstützt wird.

    Dazu kommt - Havok ist etabliert und ausgereift, PhysX krankte ja bis zur Übernahme von nVidia so vor sich hin. Gerade jetzt sind Nachrichten über PhysX ja eher Mangelware.

    Außerdem ist Intel meiner Meinung nach noch immer noch das Unternehmen schlechthin (neben Microsoft), das mit Gewalt einen Standard durchdrücken kann - wäre ja nicht das erste Mal - siehe USB.
  • Lübke 12.06.2008 16:25
    ich seh in dem ganzen einen kampf der standarts wie bei blueray vs. hd-dvd. amd/ati kann dem ganzen gelassen entgegensehn. ich denke dass intel wohl was dafür getan hat um ati mit ins boot zu bekommen. und auch nv wird sicher alles daran setzen, dass ati auch physix unterstützt. durchsetzen wird sich letzten endes vermutlich nur ein standart. da nv physix kostenlos anbietet, hat es sicher potential sich durchzusetzen, vor allem da nv ja auch großen wert auf die unterstützung von spieleentwicklern und somit auf die perfekte anpassung seiner technologien setzt. von intel wissen wir ja auch, dass sie es verstehen, ihre interessen durchzusetzen. die entwickler werden imho davon profitieren, da intel wohl auch auf lizensgebühren verzichten muss, um sich gegen physix durchzusetzen. alternativ könnte ich mir auch finanzielle unterstützung seitens intel bei den "wichtigen" spielen vom schlage crysis vorstellen, um die kleineren schmieden zum nachziehn zu bewegen...
    zum jetzigen zeitpunkt sehe ich noch keinen klaren gewinner dabei, außer die spieleprogrammierer und ati, die jetzt wohl von beiden seiten umworben werden ;)
    möge der bessere gewinnen :D
  • noxon 13.06.2008 10:16
    und ich finde auch, es macht zur zeit mehr sinn, wenn die cpu die physik berechnet(havok), die sich eh langweilt, als dass die eh überlastetet gpu an der physik rumrechnet.(physix) cosmicparty
    Du hast wohl den Artikel nicht ganz verstanden. Auch die Havok Engine soll die GPU zur Berechnung heranziehen. Hier geht es nicht um CPU vs. GPU.

    Es ist schon sinnvoll die Berechnungen auf die GPU zu verlagern. Das die CPU sich langweilt stimmt auch nicht. Die hat heut zu Tage mehr Aufgaben zu erledigen als sonst.
    Alleine mit der KI könnten die Entwickler die komplette CPU auslasten, wenn sie wollten. Die Sound-Engines werden auch immer aufwendiger und dann steigt natürlich auch der Berechnungsaufwand der Grafikengine, je komplexer das gerenderte Bild ist.

    Es ist ja nicht so, als ob die Graka alleine für den grafischen Teil verantwortlich ist. Das Ganze muss natürlich erst von der CPU zusammengesetzt und berechnet werden. Jedes Objekt auf dem Bildschirmm belastet die CPU und da kann in der Summe ganz schön was zusammen kommen.
    Da ist es schon sinnvoll die Physik auszulagern zumal so auch viele Objekte gar nicht mehr von der CPU verwaltet werden müssen.

    Außedem muss man auch immer die Leistungsvorteile der GPU berücksichtigen. Intel hat letztens noch eine Partikeldemo gezeigt die mit 50.000-60.000 Paritkeln auf einem Nehalem mit lediglich 15-20 fps lief.
    nVidia lieferte gleich eine ähnliche Demo mit 65.000 Partikeln nach, die auf einer 9800 GTX 300 fps erreichte und auf den neuen GT200'er Chips auf 600 fps kommen soll.


    Eine ähnliche Demo gab es auch mal zur Stoffsimulation. Auf einem Intel Quad Core 2 Extreme lief die Demo mit 12 fps, während sie auf einer 8800 GTS mit 200 fps lief. Auf der PhysX Karte lief die Demo auch "nur" mit 150-180 fps.

    GPUs sind also schon sehr gut geeignet um Physiksimulationen durchzuführen. Es erfordert nur wenig Resourcen der GPU um die CPU massiv zu entlasten. Die Physik nicht auszulagern wäre wirklich fahrlässig und eine Verschwendung von Resourcen.