News ForceWare der 90er-Reihe mit Havok FX für SLI

Mag sein das mit Dualcores genug Rechenleistung vorhanden ist, aber mit welchem Maßstab für die Komplexität der Physik rechnest du? Sicherlich ein anderer, als Ageia vorgesehen hat für Physx vorgesehen hat. Ageia wäre niemals so dumm, ein Physxchip zu entwickeln, der nicht deutlich stärker als eine Dualcore und sogar eine Quadcore Cpu ist.
Und ich verstehe auch nicht was alle Leute mit dem Preis haben. Ich würde ihn mir zwar auch nicht kaufen, aber die alternativen Lösungen sind auch nicht billiger und gleichzeitig viel langsamer. Hoffen wir das Ageia etwas aus dem Chip macht.
 
Ich finde das mit der 2ten GPU als PPU totalen Schwachsinn.
Eine GPU ist für Grafikberechnungen zuständig und nicht für Physik. Das sind doch verschwendete Ressourcen.

Eine PPU für Physik, eine DualChip GraKa (oder SLI) für die Grafik und einen DualCore Prozessor für den Rest.
Das ist die vernünftigste Lösung. Obwohl die PPUs im ersten PhysX Test ja ziemlich abgeschmiert sind.

Da stellt sich eigentlich nur noch die Frage: Brauche ich eine Physikkarte oder nicht.

IMHO ist es totaler Mist dass die Physikkarten einen Aktivkühler haben.
Ein guter passiver hätte es auch getan.
 
Zuletzt bearbeitet: (Ergänzug)
Stand auf Seite zwei schonmal, aber ua. wegen den Beiträgen von heute Nacht hier mal nochmal:
ppu-jpg.48012

Uih, wie ungeheuer effizient doch Dual-Core-Prozessoren und Grafikkarten Physik berechnen. (Anzahl Objekte ist hier entscheidend)
 
Ich weis nicht aus welcher Zeitschrift diese Tabelle ist - aber ich bezeichne sie einfach mal als totalen Schwachsinn.

30-100 Objekte bei einer Dualcore-CPU... Ja neee iss klaa!

Man schaue sich zum Beispiel das einige Jahre alte Flatout(bis zu 3000 Objekte laut Entwickler, wenn auch hochgegriffen - eine ziemlich hohe Zahl war es auf jeden Fall) an, oder (Mensch da ist es schon wieder) Half-Life2. Und das alles neben der eigentlichen Spieleberechnung...

Nochmals für heutzutage umsetzbare und programmierbare Physik reicht eine Dualcore-CPU aus.

Die ersten Physikbeschleuniger sehe ich in 2008 an Bedeutung gewinnen - vielleicht auch ein bisschen früher.
 
Havok wurde bisher für nichts anderes als optische Physikeffekte eingesetzt, zu mehr scheint es nicht zu taugen. In HL2 z.B. hat der Realphysikcontent eigenen Code, nur die Explosionseffekte etc. werden mit Havok berechnet. Genauso bei den 3DMark Teilen, dort dient Havok auch nur als "optische Physik". Genauso ES4. Ich finde man sollte Havok getrennt von AEGIA betrachten, da diese wesentlich mehr bieten kann, da das SDK extrem komplexer ist. Zudem zwingt das SDK nicht den Entwickler dazu, eine PhysX Karte einzubeziehen, er kann damit auch hochoptimierten CPU-Physikcode erzeugen. Das ist auch der Schlüssel zum Erfolg der PhysX, ich denke, dass sie damit den Chip sogar sehr gut verkauft bekommen und mittlerer Zukunft (bis dahin verdienen sie am SDK). Einen Mangel an lizenznehmen konnte ich auch net feststellen ;).

Zur Hardware:
Prinzipell sind alle Karten, die nach der R300 erschienen sind, als externe Vektorrechner nutzbar, da jede von ihnen in der Lage ist, Ergebnisse in den SystemRAM zu schreiben. Bisher waren aber die Treiber nicht bereit für sowas. NV bringt das jetzt mit dem 9x.xx FW einen solchen Treiber, schön und gut. Aber, das was micht jetzt daran extrem stört: unter dem Deckmantel von SLI. SLI und CF sind eh schon Kundenverarsche pur (technisch geht SLI genau wie CF auf jedem Chipsatz, der 2 PCIe Slots zur Verfügung stellt) und NV versucht Havok jetzt an den Nforce zu binden. Der Schuss geht nach hinten los, da bin ich mir sicher. Die NV/Havok Sache ist übrigens keine Exklusiv-NV-Geschichte, ATI kann das genauso problemlos per Treiber unterstützen, wird IMHO auch mit einer der nächsten Treibern kommen. Man kann rein technisch auch NV und ATI Karten mischen, auch das wär kein Prob. Also beispielsweise eine 7900 für Grafik und eine x1600 als Physikhilfsrechner oder sowas ;), nur SLI bzw. CF verhindern solche Konstrukte dann. Als nächsten Punkt muss man dann noch den Grafikchip als solches auf seine Eignung hin überprüfen. Physikberechnungen sind auch schomal skalarer Natur mit vielen Branches, das kann eine Grafikkarte jetzt nicht so sonderlich gut. Ein spezialsierter Chip kann da wesentlich leistungsfähiger sein, als eine Grafikkarte, sodass ein Physikchip wesentlich weniger Rohpower benötigen könnte als eine Grafikkarte um ähnliche Resultate zu erzielen.
Fest steht, dass es nicht ausreichend ist, einen 2. CPU Kern für Physik zu nutzen, denn dazu ist er schlichtweg nicht geeignet. Teilweise wird von der CPU massiv parallele Parallele Algorithmen und Vektorrechnung abverlangt, da knickt er unweigerlich ein.

Physik in der Zukunft:

Prozessor -> unzureichende Leistungsfähigkeit, egal ob Single, Dual oder Quadcore.

Prozessor + Grafik -> gangbarer Weg, aufteilung der Prioritäten auf CPU und Grafikkarte, Karte muss aber speziell für Physik laufen, Physik und Grafik zur gleichen Zeit ist nur ineffektiv. Zudem dürfen keine Beschränkungen wie SLI oder CF bestehen.

Prozessor + PhysX -> Optimum, da leistungsfähige Physikkarte, die den Prozessor bestmöglich entlasten kann und eine wesentlich höhere "Sorglosigkeit" für die Entwickler bietet als die CPU/Grafik-Kontrallation. Zudem ist es AEGIA letztendlich egal, ob die Karte auf PCI oder PCIe läuft (PCIe Karte kommt ja noch, der Chip hat intern eh beide Interfaces).
 
HOT schrieb:
Physikberechnungen sind auch schomal skalarer Natur mit vielen Branches, das kann eine Grafikkarte jetzt nicht so sonderlich gut.
Aber für was soll denn dann bitte eine CPU ausgelegt sein, wenn nicht für Branches und skalare Operationen. Klar bleibt noch das Problem der optimalen Umsetzung von Vektorrechnungen, aber da könnte ich mir auch eine Einheit alá SSE oder MMX vorstellen, die solche Befehle effektiv umwandelt. Schließlich lässt sich jede Vektorrechnung auch in skalare Operationen zerlegen(dass das Leistung kostet will ich nicht abstreiten, aber die Technik schreitet voran und Reserven sind heute ja schon vorhanden).
 
Affinator schrieb:
Ich weis nicht aus welcher Zeitschrift diese Tabelle ist - aber ich bezeichne sie einfach mal als totalen Schwachsinn.

30-100 Objekte bei einer Dualcore-CPU... Ja neee iss klaa!

Man schaue sich zum Beispiel das einige Jahre alte Flatout(bis zu 3000 Objekte laut Entwickler, wenn auch hochgegriffen - eine ziemlich hohe Zahl war es auf jeden Fall) an, oder (Mensch da ist es schon wieder) Half-Life2. Und das alles neben der eigentlichen Spieleberechnung...

Nochmals für heutzutage umsetzbare und programmierbare Physik reicht eine Dualcore-CPU aus.

Die ersten Physikbeschleuniger sehe ich in 2008 an Bedeutung gewinnen - vielleicht auch ein bisschen früher.

HL2 ist ein tolles Beispiel. Also ich halte die "Physik" die HL2 einsetzt für nicht sonderlich komplex, eher im Gegenteil. Das sind wirklich simple Dinge, die da berechnet werden. Mal hier 5 Kisten stapeln (5 Objekte), mal dort ne Explosion, wo einige wenige Trümmer durch die Gegend fliegen, mal hier ne Objektdeformation an ein oder zwei Objekten oder 10 Kisten, die umkippen. Was ich mir in Zukunft vorstelle ist folgendes:
Eine Handgranate wird in eine Gasse geworfen und explodiert. zwei Mülltonnen zerbersten, der Inhalt fliegt durch die Luft, brennt und verformt sich (also deformiert), die Wände erhalten Risse und Löcher, deformierte Ziegel liegen auf dem Boden usw.
Das sind 1000e von Objekten, die dort auf einmal in Interaktion sind. Das kann man nicht auf einer CPU leisten (selbst der erste PhysX kann es noch nicht), und wird auch ein QuadCore niemals leisten können. Auch Grafikkarten können das nicht leisten, weil sich schlicht und ergreifend nicht für die massive Parallelverarbeitung von verschiedenen Rechenoperationen gedacht sind.
 
Genau! Deswegen sehe ich jetzt auch noch keinen Sinn in Physikbeschleunigern. Für wahre Fortschritte reicht die Leistung heutzutage nicht aus...
 
Affinator schrieb:
...Man schaue sich zum Beispiel das einige Jahre alte Flatout(bis zu 3000 Objekte laut Entwickler, wenn auch hochgegriffen
3.000 physikalische Objekte? 3.000 Clipping-Objekte? Bei DX2 sind manchmal zig Objekte im Bild und das Game bricht dabei sehr derbe ein.

Affinator schrieb:
...oder (Mensch da ist es schon wieder) Half-Life2. Und das alles neben der eigentlichen Spieleberechnung...
Wie viele physikalische Objekte soll es denn deiner Meinung in einer Szene in HL2 geben? Imho kaum mehr als in DX2.

Affinator schrieb:
...Nochmals für heutzutage umsetzbare und programmierbare Physik reicht eine Dualcore-CPU aus.
Was technisch umsetzbar ist definiert bislang immernoch einzig und allein die verfügbare Hardware, wir sind Welten davon entfernt mehr Rechenleistung zu haben, als wir ausnutzen könnten..
 
Zuletzt bearbeitet:
Affinator schrieb:
Aber für was soll denn dann bitte eine CPU ausgelegt sein, wenn nicht für Branches und skalare Operationen. Klar bleibt noch das Problem der optimalen Umsetzung von Vektorrechnungen, aber da könnte ich mir auch eine Einheit alá SSE oder MMX vorstellen, die solche Befehle effektiv umwandelt. Schließlich lässt sich jede Vektorrechnung auch in skalare Operationen zerlegen(dass das Leistung kostet will ich nicht abstreiten, aber die Technik schreitet voran und Reserven sind heute ja schon vorhanden).

SSE und MMX sind Vektoreinheiten und können nicht parallel rechnen. Zudem sind sie (auch nicht immer) höchstens in der Lage maximal 4(!) 32Bit Werte zu liefern (SSE2/3) und in ihrer Funktionsweise arg eingeschränkt. Das sind höchstens SIMD Einheiten. Was aber für Phsik benötigt wird ist massiv MIMD, das macht die Sache ja so komplex.
Eine CPU hat nämlich ein Problem: Eine CPU kann zu einer Zeit genau einen, maximal 2 Threads (bei SMT) bearbeiten und ist damit ausgelastet. DualCores können maximal 2 (4) Threads gleichzeitig abarbeiten. CPUs haben jetzt mehr Takt, aber das reicht nicht, um die geringe Menge an Threads auszugleichen. Was jedoch benötigt wird ist ein Chip, der garnicht mal alles kann, sondern eher speziell 100e am besten 1000e Threads gleichzeitig berechnen kann. Das kann keine CPU, aber auch kein Grafikchip wirklich leisten.
 
Affinator schrieb:
Genau! Deswegen sehe ich jetzt auch noch keinen Sinn in Physikbeschleunigern. Für wahre Fortschritte reicht die Leistung heutzutage nicht aus...


Zu Zeiten von Tomb Raider, Descent2 und Quake1 gabe es auch keinen "Sinn" für 3D-Beschleuniger. Sie kamen trotzdem, brachten bessere Optik und wurden gekauft - heute gehts nicht mehr ohne. Und jetzt analysier mal den Ist-Zustand: Wir haben Rudimentärphysik. Wenn wir was besseres wollen, frisst das Rechenleistung. Die CPU kann das zwar bieten, aber nur bis zu einem gewissen Grad. Eine Grafikkarte kann das etwas beschleunigen, aber auch nicht wirklich effektiv. Was bleibt da in Zukunft, wenn der Hunger nach Mehr grösser wird?
 
@HOT: Ich stimme dir ja in allen Punkten zu, und die Problematik von SIMD-Architekturen im Vergleich zu MIMD habe ich ja auch angerissen(wobei die genauen Details wie du sie aufführst jetzt in meinen Augen ein bisschen übertrieben sind - ich denke ein großer Teil der Leser dieses Threads "Eine Karte für Gamer" wird damit nicht viel anfangen können.).

Aber worauf wir uns sicher einigen können ist die aktuelle Situation. Die von Ageia derzeit produzierte Karte hat - zur Zeit - kaum Daseinsberechtigung und ich denke auch nicht dass dies in zukünftigen Spielen besser wird. Dafür ist einfach die Leistung(Beschleunigung) zu schwach. Wenn dies per Treiber, neuer Revision oder gleich per komplett neuer Karte besser wird: Gerne!

Aber sich jetzt DIESE Karten zu kaufen ist in meinen Augen Geldverschwendung. Auch wenn man damit das Henne<>Ei Problem unterstützt.
 
Die Entlastung der CPU hat gleichzeitig noch einen netten Nebeneffekt, denn dadurch stehen auch mehr Ressourcen für bessere KI zur Verfügung.
 
Die PhysX-karte ist doch ziehmlich enttäuschend, etweder bringt sie nur unmerkliche verbesserungen oder die Performance geht unerträglich in den Keller.
Dazu kann ich jedem nur den Test auf 3DCenter empfehlen.
Ich glaube auch nicht das man da durch optimierung noch so viel verbesser können wird als das sie den Preis von fast 300 € wert ist, mir sind diese geringen verbesserungen nicht mal 50€ wert.
 

Anhänge

  • HavokFX.jpg
    HavokFX.jpg
    100,4 KB · Aufrufe: 582
sebbekk schrieb:
So ist das... und weil es hier um Havok FX geht, gibts aus dem c't Artikel noch ne weitere hübsche Grafik. ;)

Schade nur, dass es keine Spiele gibt, die Havok FX verwenden, da Havok FX gar nicht fertig ist.
 
Ich find das nicht so schlimm. PhysX bleibt 1st choice unter den Papiertiegern. ;)
 
Affinator schrieb:
@HOT: Ich stimme dir ja in allen Punkten zu, und die Problematik von SIMD-Architekturen im Vergleich zu MIMD habe ich ja auch angerissen(wobei die genauen Details wie du sie aufführst jetzt in meinen Augen ein bisschen übertrieben sind - ich denke ein großer Teil der Leser dieses Threads "Eine Karte für Gamer" wird damit nicht viel anfangen können.).

Aber worauf wir uns sicher einigen können ist die aktuelle Situation. Die von Ageia derzeit produzierte Karte hat - zur Zeit - kaum Daseinsberechtigung und ich denke auch nicht dass dies in zukünftigen Spielen besser wird. Dafür ist einfach die Leistung(Beschleunigung) zu schwach. Wenn dies per Treiber, neuer Revision oder gleich per komplett neuer Karte besser wird: Gerne!

Aber sich jetzt DIESE Karten zu kaufen ist in meinen Augen Geldverschwendung. Auch wenn man damit das Henne<>Ei Problem unterstützt.

Natürlich sagt keiner, dass du dir diese Karte unbedingt kaufen sollst. Aber die Karte hat sehr wohl eine Daseinsberechtigung, denn sie demonstriert, dass Physikbeschleunigung sehr wohl was bringt, wenn auch im Moment nicht so wahnsinnig viel. Das Ganze ist erst der Beginn der Entwicklung und es gibt immerhin schon kaufbare Hardware für sowas. Wir sollten abwarten, in welche Richtung sich das entwickelt. Hinsichtlich des Preises kann man jetzt sowieso noch keine Aussage treffen, der wird sich schon einpendeln. AGEIA wird sowieso nicht so viele Chips in Produktion haben, eher eine Demonstrationmarge. Als mehr als eine Demokarte kann man die PhysX-PCI Karten sowieso nicht bezeichnen. Auch die Nutzung und Optimierung des SDKs in zukünftigen Entwicklungen kann man jetzt unmöglich vorhersagen.
 
Zuletzt bearbeitet:
Ageia PhysX ist einfach der flop des jares 2006 !
Wenn man schon so anfängt wie soll das den weiter gehen ?
Ageia PhysX 2 oder so :(
 
Zurück
Oben