News PhysX-Karten ab Mai im Handel

Ups, da hab ich was vergessen, es sollte so heißen.
Das dürfte möglicherweise den gleichen Effekt haben, wie wenn man einer Low-Cost Graka 512 MB RAM spendiert. :rolleyes:

@noxon
Interessant, das dürfte die Sache ändern. Das dürfte dann aber auch vom Spiel abhängen. Bin schon auf die ersten Benchmarks gespannt. Dann müsste der Preisunterschied zwischen BFG und Asus größer werden, abhängig davon, wie weit die fps-Werte voneinander liegen.
 
Ich habe gerade gesehen, dass es ein neuen Cellfactor-Trailer gibt.
Es ist allerdings ein 400 MB großes Bink-Video und das kann man dummerweise nicht anhalten oder drin rumscrollen.

Ich hab's also mal als 164 MB HDTV-XviD und als 66 MB XviD mit halber Auflösung codiert, damit man sich einzelne dinge auch einmal genauer ansehen kann. Bei der HDTV Version ist Qualitativ auch nicht sichtbar schlechter als das original Bink-Video.

Zu sehen gibt es diesmal auch ein paar Flüssigkeiten, Stoffe, Rauchwolken und noch ein paar andere Gegenstände, wie Container oder Ölfässer.


Zu den Flüssigkeiten muss ich sagen, dass sie mal gut und mal schlecht aussehen. Die Flüssigkeit, die aus den Ölfässern austritt sieht ganz nett aus, aber das Blut sieht nicht gerade toll aus.

Zuerst einmal ist es viel zu viel, was da aus den Typen raussprudelt. Das müsten so ca. 50 Liter sein. Aber das wäre ja nicht so schlimm, wenn die "Körnung" nicht so grob wäre. Diese Flüssigkeiten bestehen ja aus Partikeln und die sind irgendwie viel zu groß geraten und so eine Blutlache besteht aus viel zu wenig Partikeln. Da hätten sie lieber weniger Blut nehmen soll, dafür aber die Partikelanzahl erhöhen sollen.

Naja. Was solls. Man wird sehn, was andere Hersteller daraus machen.


Im großen und Ganzen ist es aber ein nettes Video, auch wenn es dem ersten sehr ähnelt. Das Level ist zum Beispiel das Selbe, wie im ersten Trailer. (Bis auf ein paar Indoor-Szenen in einer Röhre)
 
Heilige :eek:

Und da erzähl mir einer das da kein Potenzial drinsteckt.

Danke für´s neuencoden + download. Lief wie´s Schnürchen.
 
Hab mal aus Interesse bei geizhals reingeschaut:

BFG ageia PhysX 128MB GDDR3, PCI

noch nicht verfügbar, aber für 305,85 € schon bei nem holländischen Anbieter gelistet.

Chiptakt: (vermutlich 250MHz), Speichertakt: 366MHz, 2.0ns • maximaler Verbrauch ca 28W • Bedarf Stromversorgung durch das Netzteil


@noxon: Danke fürs Codieren, bin das Video grad mal am laden...
 
Also vom übertriebenen Blutverlust einiger Personen in diesm Video sind die Effekte ja mal der Hammer. Wenn da derartig Potential drinsteckt und auch von Spieleherstellern genutzt wird......dann gehts ab :lol:

Edith:
Ja thx noxon für das geile HD Vid.
 
Boah, heftig. Danke für das Video, noxon!
Mich würde interessieren, was das da für ein Spielekonzept ist und ob uns sowas in nächster Zeit als richtiger Shooter erwartet. Ich find das sehr interessant mit dem Fliegen und diesen "Psi-Kräften". :D
 
sebbekk schrieb:
Chiptakt: (vermutlich 250MHz), Speichertakt: 366MHz, 2.0ns • maximaler Verbrauch ca 28W • Bedarf Stromversorgung durch das Netzteil

Ich bin mal gespannt, was letztendlich die tatsächlichen Werte sind. Die Taktraten kommen mir nämich verdammt gering vor.

Beim Spiecher hätte ich jedenfalls 500 MHz erwartert, wie man hier auf dem Bild der BFG Karte sieht:
ImageShow.aspx


Laut Datenblatt ist der K4J55323QF jedenfalls ein 500 MHz Speicher.


Über den Chiptakt ist soweit ich weiß nichts genaueres bekannt, aber wenn die 250 MHz stimmen, dann wäre das wirklich recht wenig.

Im Grunde genommen ist das aber ganz gut so. Wenn der Chip bei diesen niedrigen Frequenzen schon solche Leistungen bringt, dann kann man noch ne Menge Performance aus der Karte kitzeln, wenn man den Takt hochschraubt. Das sollte ja eigentlich machbar sein, da sich die Technik doch bestimmt nicht all zu sehr von den Grakas unterscheidet und die erreichen ja auch höhere Taktraten.


Holodan schrieb:
Boah, heftig. Danke für das Video, noxon!

Kein Problem.

Mich würde interessieren, was das da für ein Spielekonzept ist und ob uns sowas in nächster Zeit als richtiger Shooter erwartet. Ich find das sehr interessant mit dem Fliegen und diesen "Psi-Kräften". :D

Ich denke, dass es ein physikbasiertes Unreal Tournament wird. An einer Stelle sieht man auch wie so ein Typ eine Flagge captured und damit durch die Gegend rennt. Jedenfalls denke ich, dass das eine Flagge darstellen soll.
 
Zuletzt bearbeitet:
Naja da das ja ein spezialisierter Prozessor ist sind die Taktraten ja nicht besonders aussagekräftig. Wie bei den RISC Prozessoren auf Raidcontrollern.

Aber ich seh schon einen neuen Thread aufkommen.

"[Sammelthread] Max. Takt eures Ageia Chips"

Generell bin ich aber von diese Techink begeistert. Bei Raidcontrollern und anderen Anwendungen z.B. Soundkarten wird ja im Prinzip die anfallende Rechenlast durch Spezialprozessoren abgefangen.

Könnte wirklich sehr gut werden diese Karte. Wenn sich noch was am Preis tut...
noxon schrieb:
An einer Stelle sieht man auch wie so ein Typ eine Flagge captured und damit durch die Gegend rennt. Jedenfalls denke ich, dass das eine Flagge darstellen soll.
Sah für mich aus wie ne überdimensionale Axt :lol:
 
Also ich geb mal meine Laien-Meinung dazu ab:

Klar ist das eine tolle Sache, ich bin alles andere als konservativ und es wäre doch klasse in Zukunft mit der virtuellen Welt alles anzustellen was man möchte!
Dutzende und hunderte von Gegenständen, die vom Spieler gleichzeitig "vergewaltigt" werden können, eine absolut zerstörbare Welt, jedes Lämpchen und jede Mauer kann zerstört und kaputt gemacht werden - wäre doch geil, oder? Naja also okay, ein paar Grenzen sollten schon gesetzt werden, denn sonst käm das ja schon No Clip gleich ;)

Ich muss aber ganz einfach sagen, dass ich's ne Schweinerei finde für Physik eine Extra-Karte zu kaufen. Man kann und will mir doch nicht weiß machen, dass solche Effekte und solch eine Technik nicht auch in 6-12 Monaten auch bei aktuellen Grafikkarten von ATi & Nvidia zu finden sein wird - und auch CPUs werden immer stärker, die sollten das doch wohl von alleine auf die Reihe kriegen!

Ich mein, wenn das so weitergeht, dann braucht man bald auch noch zusätzliche Karten für Licht/Schatten-FX oder KI?!

Ich wart's erstmal ab, ich bin da momentan noch sehr skeptisch, für mich ist das trotz der Innovation Geldmacherei!
 
Darky-kun schrieb:
... Man kann und will mir doch nicht weiß machen, dass ...
Doch und Noxon hat das alles sehroft und ausführlich erklärt. Ich werde das jetzt nicht wiederholen, nur weil du dich weigerst mal etwas mitzuschneiden, also lese diesen Thread nochmal.
 
MountWalker schrieb:
Doch und Noxon hat das alles sehroft und ausführlich erklärt. Ich werde das jetzt nicht wiederholen, nur weil du dich weigerst mal etwas mitzuschneiden, also lese diesen Thread nochmal.

Oho, entschuldigung, aber nicht jeder hat mal eben die Zeit 15 Seiten zu lesen - das hat nichts mit "weigern" zu tun :mad:

Ich habe mich mit der Thematik noch nicht genauer beschäftigt (habe extra drauf hingewiesen, dass ich meine Laien-Meinung abgebe), werde das aber nachholen.
Selbst wenn diese dollen Physik-Karten so superspitze und ein must-have sind, so werde ich trotzdem bei meiner Meinung bleiben, dass es unnötig ist und eine Verbesserung von CPUs & GPUs genau so gut wäre.

Jedenfalls brauchst du mich hier aber nicht als Troll abstempeln, ich hab lediglich meinen Standpunkt vertreten, wenn dieser dir nicht passt, dann ignoriere mich. ^^
 
Zuletzt bearbeitet:
Darky-kun schrieb:
Selbst wenn diese dollen Physik-Karten so superspitze und ein must-have sind, so werde ich trotzdem bei meiner Meinung bleiben, dass es unnötig ist und eine Verbesserung von CPUs & GPUs genau so gut wäre.

Falls du nicht noch einmal alles durchsuchen willst hier ein Post von mir.
Post 1, Post 2

Wie du siehst wird eine CPU die Leistung des Chips in nächster Zukunft nicht erreichen können. Du kannst es ja mit den Grafikkarten vergleichen. Selbst ne Uralt-Graka kannst du heute nicht durch eine CPU ersetzen. Die PPU ist ähnlich wie eine GPU speziell dafür ausgelegt möglichst viele MAC(multiply-accumulate)-Operationen gleichzeitig durchzuführen. Die PPU schafft ganze 16 Stück dieser Matrixberechnungen pro Takt.

Mit der CPU rechnest du dich zu Tode bis du so eine Operation abgeschlossen hast. Da sind schnell 100 Takte vergangen. Nicht etwa weil die Rechnung aus so vielen Einzeloperationen besteht, sondern vielmehr durch Eigenheiten der CPU, die sie zwar universell machen, aber auch ineffizient. Das kannst du durch hohe Taktraten nicht wieder wett machen.


Ein Schritt in die richtige Richtung scheint im Moment AMD zu machen, wenn sie wirklich vor haben den guten alten Co-Prozessor wieder einzuführen. Der soll ja vorraussichtlich eine Peak-Leistung von 25 GFlops haben, was ja schon mal nicht schlecht ist, aber immer noch weniger als die 100 GFlops des PhysX.

Man muss auch bedenken, dass sich die Physikkarten weiterentwickeln werden und das mit recht großen Schritten. Schließlich stehen wir noch am Anfang. Alleine eine Takterhöhung von 250 auf 500 MHz sollte recht leicht machbar sein und somit die Leistung des Chips verdoppeln.

Ich verstehe ehrlich gesagt nicht so genau, warum der Chip so niedrig getaktet ist. Die Chiptechnologie kann sich doch nicht so sehr von der einer Graka unterscheiden und die erreichen ja locker Taktraten von 500 MHz.
 
Naja, eine GeForce4 Ti4200 taktete damals mit 250 MHz Core- und 550 MHz Speichertakt. Und das war oder ist unter architektonischen Gesichtespunkten schon hoch entwickelt. Kann also schon sein, dass die PhysX PPU erst mal "nur" mit 250 MHz einsteigt, oder? Die Leistungsaufnahme ähnelt übrigens ebenfalls einer GF4 Titanium.
 
OK. Hast vielleicht recht. Es ist auch immerhin noch die 130nm Technologie. Ich denke mal, dass das Herstellungsverfahren für Ageia günstiger ist, als neuere Technologien.

Die Chiphersteller sind bestimmt froh, wenn ihre 130nm Fertigungsstraßen noch eine Weile nutzen können und werden das zu günstigen Preisen anbieten.
 
Im Prinzip finde ich das ja geil und gerade die dumme (bzw kaum vorhandene) physik in spielen ist wirklich ein manko. Andererseits wird der rest des pcs dadurch ja nicht günstiger, dh. für einen gametauglichen pc muss man dann nochmal 300€ mehr hinblättern.
Ob das abgesehen von den leuten die immer ein highend system haben müssen bei dem geld kaum eine rolle spielt sich so viele zulegen werden?
Naja mal sehen wie sich das so entwickeln wird.
 
Ach Gottchen, welch unerwartete Neuigkeit. Das wurde hier im Thread ja nun oft genug lang und breit erklärt. :rolleyes:
 
;) Aber Mamba! Das sind doch extrem tolle Neuigkeiten! :D Also ich hab mir den Thread von Extremesystems vor kurzem auch schon gegeben und ich weis nicht was du willst - ich pers hab mich weggeschmissen.

Ist das nicht das gleiche wie damals mit dem XP64Prof, dass sich manche sofort bestellt haben und sich dann reihenweise beschwert haben, dass es nur in Englisch ist und man kaum treiber dazu bekommt.

Hab doch Verständnis für diese armen Seelen - "denn sie wissen nicht was sie tun!"

Entschuldigt bitte den Sarkasmus und die mitschwingende Ironie.

Aber mir war einfach danach.

Liebe Grüße,
Dilandau
 
gamestar schrieb:
Ein weiteres Augenmerk richtet sich auf die Übertaktbarkeit der Karte. Auf Grund der Größe des Dies scheint es durchaus möglich sein, den PPU-Adapter zu übertakten.
Boa, die Jungs ham ja tierisch Ahnung, Hut ab. Na da bin ich jetzt aber auch froh, dass ich nen Barton habe, den kann ich sicher auch viel geiler übertakten, weil der DIE größer als beim T-Bred ist. :rolleyes:
 
Zurück
Oben