Bericht Vorschau: BFG PhysX Accelerator card

Ausserdem stellt sich die Frage auf, wie gut arbeiten die Grakatreiber mit, sind da störende sachen etc. Es ist einfach noch zu früh finde, aber der Preis von 300€ ist zu hoch. Um due 100€ und ich würde sie mir kaufen, denn eine karte die zusätzlich etwas berechnet kann nur entlastend wirken, ist dies nicht der Fall sind andere störende Quellen dafür verantwortlich zu machen.

Zu Ghost recon, das ist ein Game das von grundauf so schlecht programmiert ist das ich die Tests darinn getrost hinnwegsehen kann.

Warten wir ab wie es mit TOP Firmen aussieht wie Epic oder eben Gothicmacher.
 
Das Hauptproblem (neben dem hohen Preis) der PhysX-Karte ist ja, dass diese an den PCI-Bus angebunden ist. Da die PhysiX-Karte wohl sehr viele Daten über den PCI-Bus jagen wird, wird dieser wohl sehr schnell ausgelastet sein, so dass dann z.B., wenn man über eine PCI Soundkarte verfügt, dann schonmal Soundruckler auftreten können.

Ich hab jetzt nicht den ganzen Artikel durchgelesen, aber wurde sowas denn getestet und berücksichtigt?

Dass die Frames mit ner PPU zurückgehen, liegt wohl daran, dass, wenn mehr Objekte herumfliegen oder sich bewegen als bei der Berechnung durch die CPU, auch mehr von der Graka berechnet werden muss.
 
Zuletzt bearbeitet:
Ich denke auch, man sollte ihnen noch einwenig Zeit geben. Bei jeder neuen Hardware ist das zusammenspiel der Komponenten wichtig, sowas muß ausbalanciert werden von den Treibern und den Spiele-Programierern.
Kauft ihr eine Soundkarte oder laßt ihr den Sound von der CPU berechnen? Bringt es so viel FPS das es sich rechnet?Die Soundkarte mit ihrer Spezial-CPU sorgt aber für klareren Sound und z.b. EAX die sonst per CPU sehr belastend wäre. Allerdings hingt der Vergleich mit der PhysiX in sofern das, hier anschließend noch CPU/GPU für die letztliche umsetzung gebraucht werden.
Nichts anderes ist eigenlich die PhysiX, sie berechnet nur wohin ein Objekt fliegt,zusammenstößt,flugbahn. Für die Darstellung dieser effekte ist immernoch die CPU/GPU zuständig. Und es sollte auch klar sein, ohne jemanden anzugreifen, das mehr objekte für die PhysiX-Karte in die Demos gepackt wurden, die auch schnell berechnet wurden von der PhysiX, aber die CPU/GPU kombi einfach nicht mit der zusätzlichen Rechenleistung für diese klar kommt. Dies muß feinabgestimmt werden zwischen PhysiX-Effekten-Anzahl und CPU/GPU-Mehraufwand.
Aber richtig, wie viele hier auch sagen, das es jetzt noch zu früh für eine abschließende Bewertung ist und man mal abwarten sollte 1-2 Jahre, HavokFX hat auch ein wenig gebraucht bis es richtig brauchbar war.dualcore haben viele auch noch nicht in die Spiele integriert, obwohls was bringt mit mehr FPS und KI ect.

So long
 
Zuletzt bearbeitet:
Da sich weder der Datenverkehr einfach auslesen lässt noch eine PCIe-Karte verfügbar ist, lässt sich bezüglich der Auslastung des PCI-Buses leider nichts sagen.
 
Von welchem Hersteller soll man sich denn später ne PhysiX karte kaufen?
Das wird doch irgendwann wie mit den Grafikkarten, 100 verschiedene Modelle, alle haben einen größeres/kleineres Speicherinterface, und um UT 2020 spielen zu können braucht man PhysiX Karte v. 3.85.
Dann kommt Quake 5 und schon braucht man ne neue Karte weil dieses Spiel noch mehr Physik Effekte bietet? :freak: ;)

Doch lieber bei den alten games bleiben :freaky:
 
Ich hab es von Anfang an gesacht... derzeit ist die Karte wirklich nutzlos. Trotzdem will ich mal gespannt sein was noch so kommen wird ;)
 
War irgendwie abzusehen, dass die Karte zu Beginn keinen Vorteil bei "jetzigen Games" bringen wird. Trotzdem war interessant mal, was konkreteres darüber zu lesen. In Zukunft werden sicher Spiele erscheinen, die daraus ihren Nutzen ziehen werden und können.

Wie heisst es doch so schön? "Abwarten und Tee trinken..."

mFg tAk
 
Ich finde nur komisch, das die Demo Cell Factor nicht ruckerfrei lief! Im Video war doch alles so schön ruckerfrei. Was hatten die da für ein PC. Einen mit 70 Terraflops!:p
 
Was ein Reinfall, danke @ CB für den tollen Test!

Aber was ich mal interessant finden würde:
Ein Spiel, bei dem der PhysX keine zusätzlichen Effekte darstellt sondern quasi das System "entlastet".
Und dann der Vergleich, wenn man beispielsweise 700€ hat und sich eine Kombo aus CPU/Graka/PhysX baut.
Ob man da lieber 300€ Dualcore CPU / 400€ Monstergraka
oder 150€ CPU/ 300€ PhysX und 250€ Graka nimmt..

Ich denke ersteres, denn nach dem Test scheint das Ding ja echt nix zu bringen...

Interessant wäre der Stromverbrauch!
 
df7nw01 schrieb:
Natürlich sollten die Frameraten auf der anderen Seite aber nicht einbrechen. Evtl. gibt es hier noch Treiberunstimmigleiten, evtl. bremst der PCI-Bus, oder sonst was, das muss sich zeigen.
Eben....es gibt aktuell auch Spiele, die bereits Karten der X1900 oder 7900er Klasse ins Schwitzen bringen (ich rede mal garnicht von denen drunter). Wer sich mit so einem Boliden ohne PhysX schon bei halbwegs flüssigen 50fps entlanghangelt, um dann mit der Karte bei 20 anzugelangen..sorry, aber so wird diese Karte schlicht als Hardwarekuriosität enden.

Unverständlich auch dass Ageia die Karte zum jetzigen Zeitpunkt in diesem (Treiber-)Zustand releast. Die werden das Ding doch vorher getestet und festgestellt haben, dass es überwiegend ein Lacher ist? Die mussten doch wissen, dass sie ausser einem Innovationspunkt in seriösen Reviews nichts bekommen werden? Das ist miserables Marketing. Oder das Ding kann wirklich nicht mehr und man wollte wenigstens noch paar Dollar Entwicklungskosten reinbekommen, wenn sich paar eingefleischte Hardwaregurus dieses Ding kaufen, um es in die Vitrine zu stellen ;).

Ich erinnere nur mal an die garnicht so alten Volari Grafikkarten mit Dualchip. Was für ein Tohuwabu vorher..."der Überkiller, ATI und Nvidia weggerockt, Innovation hoch 10"....was ist? Sang-und klanglos wegen Designmängeln und schwacher Treiber in der Versenkung verschwunden. Innovation allein reicht nicht.
 
Zuletzt bearbeitet:
HugeXL schrieb:
Ein Spiel, bei dem der PhysX keine zusätzlichen Effekte darstellt sondern quasi das System "entlastet".

Eben deshalb habe ich von einer Messung des Stromverbrauchs abgesehen. Die Boxes Demo dürfte die Karte ebenso wenig wirklich fordern wie der zeitweise Einsatz bei GR. Die passende Software fehlt einfach noch. ;)
 
the_scientist schrieb:
Also, erstmal THX für den Test CB. :)
Und desweiteren glaube ich nicht das bei weiter vorschreitender GPU-Entwicklung der PhysX eine Chance hat. Grade auch im Bezug auf G80 + Havok FX. Das ist einfacher zumindest für den Verbraucher und trotzdem geile Grafik.

Es gibt aber einen gewaltigen Unterschied zwischen der PPU und Havok-FX. So ein Spiel wie Cellfactor kannst du mit Havok-FX nicht realisieren.

Das liegt ganz einfach daran, dass die Grafikkarte ihre Berechnungen nicht an die CPU übermitteln kann. Sie kann zwar die Objekte berechnen und von Wänden und Spielern abprallen lassen, aber die CPU bekommt davon nichts mit. Die CPU weiß nicht, wo sich die ganzen Objekte befinden. Das weiß nur die Grafikkarte.

Dadurch ist es der CPU also auch nicht möglich festzustellen, ob ein Spieler von einem Trümmerteil getroffen wurde oder nicht. Die CPU weiß auch nicht, ob die Mauer ein Loch hat oder nicht. Die weiß gar nichts über den Hardwarebeschleunigten Teil. Also kann sie dir auch keine Health-Points abziehen und durch das Loch in der Wand wird man auch nicht laufen können.

Havok-FX ist also nicht für Gameplay-Physik geeignet, sondern nur für Effekt-Physik. Sprich schönere Explosionen und so weiter. Sie beeinflusst aber nicht das Spiel.

Die PPU hingegen kann das und erst das macht eine richtige Physik-Engine aus.



Noch ein Wort zu PCIe:

Ich finde es auch sehr schade, dass es die Karte nur als PCI-Karte gibt. Besonders, weil die Karte bereits PCIe-fähig ist und ihr nur der Stecker fehlt. Die Prototypkarten, die auch einige Entwickler bekommen haben, waren Dual-Karten. Auf der einen Seite hatten sie einen PCI Stecker und auf der anderen Seite einen PCIe 1x Stecker. So konnte man sich aussuchen in welchen Slot man sie stecken wollte.

Es wäre wirklich sehr schön gewesen, wenn das beim Finalen Produkt auch so gewesen wäre.
 
Tut mir leid.

Haut mich gar nicht vom Hocker.
Sind dazu auch noch nach Optimierung für die Karten aus und nicht nach eine Notwendigkeit.

Ergo: Das läuft so ab, dass die Berechnungen, die der Rechner auch ohne Karte packen könnte, so programmiert werden, dass sie ohne Karte anders ablaufen.

Ich möchte hier nich destruktive Kritik äußern oder rumpöpeln, aber es erscheint mir einfach nicht plausibel, das die paar Fetzen Grafik nur aufgrund dieser Karte möglich sind.
 
Fubar.Redeye schrieb:
das die paar Fetzen Grafik nur aufgrund dieser Karte möglich sind.

Und wenn durch die Karte mehr Fetzen möglich wären,
oder gleichviele Fetzen mit deutlich höheren Frames?
 
Fubar.Redeye schrieb:
Ich möchte hier nich destruktive Kritik äußern oder rumpöpeln, aber es erscheint mir einfach nicht plausibel, das die paar Fetzen Grafik nur aufgrund dieser Karte möglich sind.

Sehe ich auch so. Ich glaube nicht, dass GRAW überhaupt irgend einen Nutzen aus der Karte zieht. So viel detalierter sind die "PhysX"-Effekte auch nicht.

Es ist wirklich schade für Ageia, dass sie überhaupt kein richtiges Spiel zur Demonstation haben. Selbst deren "Hanger of Doom"-Demo ist ja nicht so sehr der Bringer.
Ich frage mich, warum sie nicht etwas mehr Arbeit in's Marketing gesteckt haben und eine richtig coole Demo angefertigt haben, die man sowohl per Software als auch per Hardware ausführen kann. Die wäre doch in den Reviews bestimmt gut angekommen.

Eigentlich gibt es solche Demos auch, aber die scheinen nicht öffentlich zu sein. Da wäre zum Beispiel eine Demo in der jede Menge Geröll den Berg hinabrollt. Die wurde mal auf der quakecon vorgeführt und da hat die PPU wirklich sehr gut abgeschnitten.
 
Das eine Steigerung der Gesamtperformance möglich gemacht werden kann sehe ich genauso.
Ich finde die Idee eigentlich sehr gut, nur hätte man die Zeit nutzen sollen, um wenigstens die Demos vernünftig zu Programmieren und an den Treibern zu arbeiten. Denn wie schon gesagt wurde, können schlechte Demos einer guten Idee schnell das Genick brechen.
Und nicht nur die Karte, sondern die gesamte Idee ist ja noch recht jung. :baby_alt:
Grütze R.

P.S.: Netter Test, danke CB :love:
 
ein fehlstart ohne gleichen
wie dumm sind die eigentlich? das hätte man doch vorhersehen können das die karte in der luft zerrisen wird
da warte ich lieber um was vernünftiges vorzeigen zu können als so einen schwachsinn zu zeigen

das konzept und die karte sind mit sicherheit nicht schlecht
aber den krempel muss man auch vermarkten, man kann doch nicht so was halbgares der öffentlichkeit präsentieren: entweder kaum mehr details und akzeptable leistung
oder schöne physik welche zur notbremse wird

ich bezweifle auch das die nahe zukunft da was ändern wird
zwar wollen viel games physx unterstützen, aber die frage ist wie!
sieht das so aus wie bei ghost recon(wovon auszugehen ist, da sdie spiele schon lange in der entwicklung sind) loht sich das ganze immer noch nicht

es müssen schon spiele her die die karte richtig ausnutzen und die performance auch durch diese verbessert wird
sonst sehe ich schwarz für ageia
 
Ich denke mal das die Grafiktreiber optimiert werden müssen. Das Mainboardbios kann auch als bremse wirken und das Video von Cellfactor kann ja auf High End Mühlen entstanden sein. Ich mein es ist ein Unterschied ob ich ein Demo von BF2 mit ner 7900GTX oder mit ner 6600GT.
 
Zu den häufigsten Anwendungen zählen zum Beispiel Starrkörper-Dynamik, Kollisions-Abfrage, Flüssigkeits-Simulation, weiche Körper und das Zerbrechen von Objekten.

Kann mir bitte irgendjemand ein Spiel nennen, wo man Flüssigkeiten in Echtzeit sieht?
Bisher sind meines Wissens nach nur Texturen bzw simple Partikel für sämtliche Flüssigkeitsdarstellungen in Spielen verantwortlich, und nicht, wie es realistisch wäre auf Metapartikel Basis. (man erinnert sich an die PS3 Demo mit den Enten)



Aber @ Topic:

Ich denke, dass die Performanceeinbrüche bei GRAW vermutlich auch auf den langsamen PCI bus zurücksuführen sind. Wenn man nämlich denkt, dass die Daten vom Prozessor über den Bus in die Physix Karte und zurück durch den langsamen Bus müsssen, kling das in meinen Augen vernünftig.
Ich hoffe, dass gegen Ende des Jahres eine PCI-X (ev. 4x) herauskommen wird.
Und wenn es Ageia vielleicht schafft, zum 90nm Prozess zu schreiten, dadurch die Karten auf 200€ zu verbilligen un passiv zu kühlen, steht einem Erfolg sicher nichts im weg!
 
War klar, dass die Kaarte jetzt noch mau ist.
Auf DX10 (mit Direct Physics) und auf die ersten guten Games (UT 2007) für die PPU warten und abgehts ;)

@PCI-Bus Problematik:
Es wurde schonmal in einem anderen Thread zu dem Thema gesagt, dass die Karte nur sehr wenige Daten (fast nur Lagekoordinaten) austauschen muss und desswegen der PCI-Bus dicke reicht und auch nicht blockiert oder daran limitiert.
 
Zuletzt bearbeitet:
Zurück
Oben