Havok wurde bisher für nichts anderes als optische Physikeffekte eingesetzt, zu mehr scheint es nicht zu taugen. In HL2 z.B. hat der Realphysikcontent eigenen Code, nur die Explosionseffekte etc. werden mit Havok berechnet. Genauso bei den 3DMark Teilen, dort dient Havok auch nur als "optische Physik". Genauso ES4. Ich finde man sollte Havok getrennt von AEGIA betrachten, da diese wesentlich mehr bieten kann, da das SDK extrem komplexer ist. Zudem zwingt das SDK nicht den Entwickler dazu, eine PhysX Karte einzubeziehen, er kann damit auch hochoptimierten CPU-Physikcode erzeugen. Das ist auch der Schlüssel zum Erfolg der PhysX, ich denke, dass sie damit den Chip sogar sehr gut verkauft bekommen und mittlerer Zukunft (bis dahin verdienen sie am SDK). Einen Mangel an lizenznehmen konnte ich auch net feststellen

.
Zur Hardware:
Prinzipell sind alle Karten, die nach der R300 erschienen sind, als externe Vektorrechner nutzbar, da jede von ihnen in der Lage ist, Ergebnisse in den SystemRAM zu schreiben. Bisher waren aber die Treiber nicht bereit für sowas. NV bringt das jetzt mit dem 9x.xx FW einen solchen Treiber, schön und gut. Aber, das was micht jetzt daran extrem stört: unter dem Deckmantel von SLI. SLI und CF sind eh schon Kundenverarsche pur (technisch geht SLI genau wie CF auf jedem Chipsatz, der 2 PCIe Slots zur Verfügung stellt) und NV versucht Havok jetzt an den Nforce zu binden. Der Schuss geht nach hinten los, da bin ich mir sicher. Die NV/Havok Sache ist übrigens keine Exklusiv-NV-Geschichte, ATI kann das genauso problemlos per Treiber unterstützen, wird IMHO auch mit einer der nächsten Treibern kommen. Man kann rein technisch auch NV und ATI Karten mischen, auch das wär kein Prob. Also beispielsweise eine 7900 für Grafik und eine x1600 als Physikhilfsrechner oder sowas

, nur SLI bzw. CF verhindern solche Konstrukte dann. Als nächsten Punkt muss man dann noch den Grafikchip als solches auf seine Eignung hin überprüfen. Physikberechnungen sind auch schomal skalarer Natur mit vielen Branches, das kann eine Grafikkarte jetzt nicht so sonderlich gut. Ein spezialsierter Chip kann da wesentlich leistungsfähiger sein, als eine Grafikkarte, sodass ein Physikchip wesentlich weniger Rohpower benötigen könnte als eine Grafikkarte um ähnliche Resultate zu erzielen.
Fest steht, dass es nicht ausreichend ist, einen 2. CPU Kern für Physik zu nutzen, denn dazu ist er schlichtweg nicht geeignet. Teilweise wird von der CPU massiv parallele Parallele Algorithmen und Vektorrechnung abverlangt, da knickt er unweigerlich ein.
Physik in der Zukunft:
Prozessor -> unzureichende Leistungsfähigkeit, egal ob Single, Dual oder Quadcore.
Prozessor + Grafik -> gangbarer Weg, aufteilung der Prioritäten auf CPU und Grafikkarte, Karte muss aber speziell für Physik laufen, Physik und Grafik zur gleichen Zeit ist nur ineffektiv. Zudem dürfen keine Beschränkungen wie SLI oder CF bestehen.
Prozessor + PhysX -> Optimum, da leistungsfähige Physikkarte, die den Prozessor bestmöglich entlasten kann und eine wesentlich höhere "Sorglosigkeit" für die Entwickler bietet als die CPU/Grafik-Kontrallation. Zudem ist es AEGIA letztendlich egal, ob die Karte auf PCI oder PCIe läuft (PCIe Karte kommt ja noch, der Chip hat intern eh beide Interfaces).