News Neue Physikkarte von Ageia aufgetaucht

AMD und Nvidia entwickelön Software, mit der sich Physik püber grafikshaderchips berechnen lässt - mit wesentlich weniger Energieeffizienz als auf der Extrakarte und mit Extrakarte für Physik, nur dass diese Extrakarte dann eben nicht Ohysik- sondern Grafikkarte heißt... - die Shaderchips laufen in Spielen eben nie leer, es gibt da also keine brach liegende Leistung.

Wenn der Grafikkartenkühler für einen zusätzlichen Chip auf der gleiche Karte 20 W Verlustleistung mehr abfühgren muss wird er auch nicht leiser. Was du brauchst ist ein PhysX-Chip auf dem mainboard - sowas ist vorstellbar, wie MSI ja schon Creative-EAX-Chips aufs Mainboard pflanzt.
 
Zuletzt bearbeitet:
Hier stinkt es nach viralem Marketing. Gewaltig :freak:

selfish schrieb:
@ beehaa: die Spieleentwickler werden sich nicht nach dir richten...du redest von "pipifax"; das mag es gegenwärtig noch sein, da bis dato auch keine wirklich physiklastigen Spiele mit abertausenden von Effekten programmiert wurden.
Nicht nach mir? Da bist du auf dem Holzweg mein Freund. Die Entwickler werden sich nach dem Markt richten. Da muß sich also noch zeigen wie dieser auf so ein Teil reagiert.

Wo du noch zusätzlich auf dem Holzweg bist, und was viele andere der Superaufgeklärten ebenfalls nicht gepeilt haben, ist, daß diese Karte für überhaupt keine Effekte zuständig ist, sondern nur für ihre physikalische Korrektheit. Sie sollen nur natürlicher aussehen. Man wälzt auf die Karte nur derartige Berechnung ab, wodurch man CPU-Zeit einzusparen hofft. Hast du paar Beispiel wieviel MEHR dadurch möglich sind? Ich meine damit Spiele.

Mit der Korrektheit und dem Maß deiner Explosionen hat es momentan noch auf sich, weil man eher zeigen möchte wie schön das alles nun funktioniert. Die Bei-Spiele sind also meistens stark überzeichnet in diese Richtung.

Trotz der Entlastung der CPU wird die alte wie auch die neue Karte aber auf keinen Fall irgendwelche "abertausende von Effekten" mehr ermöglichen als man ohne dieser Karte hätte.
Wie die Scherben eines zerschlagenen Fensters zum Boden fallen ist mir absolut egal. Nach dem Klirr stehe ich eh sofort unter Beschuß aus dem Haus gegenüber und habe keine Zeit mich mit sowas zu beschäftigen. Dafür ist mir schon selbst Havok zuviel des Guten.

Solange das kein Teil von OpenGL und DX ist, interesiert mich das nicht. Solange es nur einen Hersteller von Physikchips gibt, interessiert mich so ein Teil für xxx € garnicht.

Ja es ist mir schon klar, daß zB. so ein Carmack keinen Plan von nichts hat...

edit:
Und wenn das nicht alles stimmen würde, hat das Teil immernoch einen heftigen Quirl und einen zusätzlichen Stromanschluß. Für mich eben ein Witz.
 
Zuletzt bearbeitet:
hmm naja für mich unnötig, das soll die grafikkarte machen! zb. das die grafikkarten hersteller multicore machen oder die physik berechnungs effekte mit auf dei grafikkarte packen, und ausserdem sollen die spiele hersteller die cpus nutzen multi core cpus. zb. crysis wird es unterstützt physikberechnungen per cpu. SO muss das sein und nicht eine zusatz beschläuniger/unterstützungs karte.

g. biesy
 
@ Beehaa: Du hast augenscheinlich nicht bemerkt, dass sich Spieleentwickler und ihre Vertreiber einen Dreck um die Wünsche der Spielerszene scheren. Man könnte meinen, dass sie doch gerade auf den Zuspruch der Konsumenten angewiesen seien, sind sie aber nicht. Bestes Beispiel ist die MedalofHonor-Reihe aus dem Hause EA. Der erste Teil war recht gut gelungen und hatte in vielerlei Hinsicht Maßstäbe gesetzt. Nach dem Release erschien noch ein Patch, danach war Sense. Support eingestellt. Darauf folgten Spearhead, Breakthrough und als Spitzenflop Pacific Assault. Doch änderten all diese Reinfälle irgendwas an der Schöpfungspolitik der Entwickler ? Nada. Die produzierten brav eine Nullnummer nach der anderen weiter . Der offizielle Nachfolger Airborne , der am 14.9. erscheinen wird, zeigt eindringlich, wie rücksichtlos Games vertrieben werden - bewusst. Schaut man sich die Systemvoraussetzungen an und führt sich darüber hinaus die Vorabinformationen zum Spiel zu Gemüte, möchte man schier erblassen. Minimum: 3800+ sowie ne Grafikkarte mit shadermodel 3...und damit ist nur garantiert, dass das Spiel überhaupt startet. Unverschämt ist auch, dass die PC-Version das Spiegelbild zur Xbox-Version ist, wurde also nahezu 1:1 konvertiert. Erst auf Druck der Community hin wurde überhaupt erst ein dediziertes Servertool hinzugefügt, anderfalls hätte man nicht einmal einen Gameserver aufsetzen können. Die Demo ist ja mittlerweile draußen. Diese belegt die bestehenden Mängel. Mit ner X1950XT und ner X2 4000+ und 2gig Ram kam ich im Schnitt auf sagenhafte 40fps( auf mittlerer Einstellung, ohne AA/AF)...und diese Hardware ist wohl alles andere als rückständig!
Egal ob das ein Flop wird oder nicht, egal wie es sich verkauft, die bekommen ihr Geld!
Das ist ein Beispiel aus eigener Erfahrung...ich hoffe andere Producer sind da nicht so nachlässig...

p.s.: die Physikkarte soll die CPU nicht entlasten, sondern soll aufwendige Physikberechnungen erst ermöglichen, womit eine CPU egal ob mit 2,4,8 Kernen überlastet wäre.
 
Zuletzt bearbeitet:
@65

Wo wir gerade dabei sind.
Hat diese angebliche PCIe Ageia Karte etwas einen SLI-Anschluss? :lol:
 
wozu braucht man dann nen4 und in zukunft sicher 8,16.... kern prozessor?

ich als kunde will nicht noch ne karte, da können die nen kopfstand machen :)

in 1-2 jahren werden die "großen" das doch sicher kopiert haben und in ihre proz./gk. einbauen...

und das kling alles so unfertig und nicht greifbar...
ich will zahlen, benchmarks usw.
ne katze im sack auf gut glück will ich einfach nicht kaufen, weil es vieleicht wenn es gut läuft und das wetter schön wird die karte in paar jahren was bringen wird... :)

nicht jede schöne idee muss erfolg haben.
 
Weiss eigentlich jemand, ob mit dem (kommenden) GPGPU-Konzept auch Physik beschleunigt werden kann?
Falls das so wäre, könnte Ageia Konkurrenz bekommen: dann bringen nVidia oder ATI einfach abgespeckte GPUs raus, die man dann zur Physik-Berechnung verwendet.
Kennt sich da jemand aus?
 
BeeHaa schrieb:
...
Trotz der Entlastung der CPU wird die alte wie auch die neue Karte aber auf keinen Fall irgendwelche "abertausende von Effekten" mehr ermöglichen als man ohne dieser Karte hätte.
Wie die Scherben eines zerschlagenen Fensters zum Boden fallen ist mir absolut egal. Nach dem Klirr stehe ich eh sofort unter Beschuß aus dem Haus gegenüber und habe keine Zeit mich mit sowas zu beschäftigen. ...
Physik ist nun auch mehr als sowas - PhysX ist sowieso für Sachen wichtig, die in Interaktion mit den Charakteren stehen, dass sowas erst umgesetzt werden wird, wenn der Marktzanteil bei 50%+ aller Gamer-PC liegt ist halt wirtschaftliches Gesetz, keine Unfähigkeit des Konzepts. Mich interessiert bspw. schon, ob eine Wand nicht nur Charaktere und Kugeln, sondern auch Explosionen blockt, sodass ich nicht, wie derzeit üblich, hinter einer meterdicken Betonmauer von einer Explosion auf der anderen Seite geschlagen werden, weil die Wand für die Explosion nicht existiert.
 
@ cob: über den Sinn und Zweck solcher Vielkerner lässt sich streiten. Anfangs wird man wenig Nutzen daraus ziehen, erst wenn darauf programmierte Applikationen erscheinen, wird es einen vermeintlich positiven Effekt auf diese haben. Bei Spielen ist das so ne Sache. Mittlerweile profitieren die neuen Games von Mehrkernen, wenn man auch noch lange nicht von X2 = zweifache Leistung sprechen kann. Bei ebenso leistungsfähiger Hardwareumgebung ist das theoretisch durchaus denkbar. Jedoch darf man die Aufgaben einer CPU nicht mit den Tasks einer PPU gleichsetzen, es sei denn, diese wären darauf spezialisiert worden.Vielleicht gibt es ja wirklich mal einen Prozessor, der als Attribut einen reservierten und zugleich spezialisierten Physikkern bietet.
 
Also das verlinke Board schafft entweder 2mal PCI-e 16x oder 4mal PCI-e 8x, aber nicht wie oben behauptet 4mal PCI-e 16x!
 
jo, bis jetzt werden, glaube ich, maximal 32 Lanes unterstützt bzw. sollen 40 Lanes bei den kommenden Mainboards realisiert werden. 64 gibts noch nich.^^
 
selfish schrieb:
... Mittlerweile profitieren die neuen Games von Mehrkernen, ...
Nicht wirklich, bei Crysis laufen Physik und Soundeffekte in einem eigenen Prozess - also genau die Dinge, für die man (im PC, im Gegensatz zur XBox 360) dedizierte Hardware hat.
 
MountWalker schrieb:
Nicht wirklich, bei Crysis laufen Physik und Soundeffekte in einem eigenen Prozess - also genau die Dinge, für die man (im PC, im Gegensatz zur XBox 360) dedizierte Hardware hat.

Was heißt nicht wirklich? Die Prozesse laufen auf dem anderen Kern also profitieren Spiele von einen weiteren Kernen. Das ist überhaupt keine Aussage für eine dedizierte Lösung.
 
Im Internet sind Fotos einer – so heißt es – neuen Generation von Ageias PhysX-Karten aufgetaucht.

Also alles dannach ist Spekulation...?
Die Bilder könnten demnach genausogut ne Grafik Karte zeigen.
PPU im SLI ist noch sinnloser als SLI selber, wenn man dadurch in nem NORMALEN Sli Board die PPU mit GPU koppeln könnte, irgendwie wär der Sli Port eventuell noch was wert ne zweite Graka kommt mir nicht mehr rein... war mal geplant aber bei der Preis / Leistungs politik find ich ist SLI nur Sinnlos.


Ich versteh sowiso nicht wie die sich das mit der PhysiX vorstellen.
Bis jetzt hab ich nur Bilder gesehen wo mehr Partikel durchs Bild fliegen oder Explosionen etwas imposanter wirken. Gerade das Argument dass die Graka das nicht übernehmen kann weil man damit nicht interagieren kann zieht hier eben nicht. Kann ich mit ner explosion interagieren... nö das ist nur Grafik Phirlefanz der durch ne stärere GPU besser bedient ist. (gerade diese vergleichsbilder von GRAW und GRAW 2 mein ich hiermit)

So wie ich mir das denke sollte so ne Physik karte die kompletten berechnungen übernehmen die mit physik zu tun haben -> im quellcode nen zusätzlichen Code-Tag oder so der der CPU sagt schicks an die PPU sofern vorhanden sonst mach es selber.
Und nicht dass die CPU das macht was sie sowiso macht PLUS wenn ne PPU da ist ein paar extra effekte die am ende die FPS sogar runterdrücken.

Ist echt bescheuert auf dem Spiele markt... seit Jahren kommt neue Hardware, und dann kommen neue Spiele die diese hardware bis aufs letzte ausreizen so dass man wieder auflösung und details runter muss damit man auf nem großen monitor nicht 20frames hat.

Inzwischen gibt es genug User mit 22zoll Widescreen oder wenigsten 19zoll CRT's und drüber, die Games sind aber immernoch auf niedrige FPS bei hohen Auflösungen ausgelegt.

mit 2x2,8GHz und 512MB 7950GT hab ich weis gott kein schlechtes System (hab genug in der contact liste die mich drumm beneiden würden) und dann kommen doch immer wieder so Spiele wil CMR Dirt wo ich dann 20FPS hab.... hallo?

ok ich glaub ich drifte vom thema ab ^^
 
fandre schrieb:
Was heißt nicht wirklich? Die Prozesse laufen auf dem anderen Kern also profitieren Spiele von einen weiteren Kernen. ...
Spiele profitieren stärker von dedizierten Lösungen als von weiteren kernen, weil ich mit dedizierten Lösungen eben sehr viel mehr im Spezialbereich anfangen kann, als miot den aufgeblasenen Common-Purpose-Kernen. EAX-Chips haben eine sehr große Vewrbreitung unter Gamern, davon, solche Soundeffekte auf einem CPU-kern zu berechnen haben diese Leute nichts. Und schau mal, das sind jetzt nur drei der vier Kerne der neuesten High-End-Prozessoren, mit der Begründung, mit der aktuell Physik und Sound ausgelagert wird, müsste man jetzt auf dem vierten CPU Kern 3D-Grafikeffekte berechnen, die 3D-Hardware-Grafikkarten abschaffen, und würde dann noch mehr von Multicore profitieren oder wie?

Es existiert nicht zu viel Leistung, sondern nur ein von der Hardware-Industrie vorgegebener Scheiß-Zwang zum Parallelisieren, bei dem aktuell immernoch niemand weiß, was man sinnvoll parallelisieren kann, das mit Spezialchips nicht energieeffizienter laufen würde.
 
Zuletzt bearbeitet:
MountWalker schrieb:
Mich interessiert bspw. schon, ob eine Wand nicht nur Charaktere und Kugeln, sondern auch Explosionen blockt, sodass ich nicht, wie derzeit üblich, hinter einer meterdicken Betonmauer von einer Explosion auf der anderen Seite geschlagen werden, weil die Wand für die Explosion nicht existiert.

Was heißt, "wie derzeit üblich"? So ein Blödsinn. Außerdem hat all das mit PPUs absolut nichts zu tun. Ich weiß nicht, welche Spiele du hier ansprichst, aber wenn du tatsächlich von Explosionen hinter der Wand getroffen wirst, dann hat das schlichtweg etwas mit mieser Programmierung zu tun. Kann mich nicht erinnern, dass ich bei Quake 3 jemals von einer Explosion auf der anderen Seite der Wand Schaden genommen hätte, und Quake 3 is ja jetzt wirklich schon sehr alt und hat mit PPUs gar nix zu schaffen.

Und warum in fast jedem deiner Kommentare das Wort "EAX" fällt, kapier ich auch nicht ganz.
 
Meines Erachtens nach, möchte er damit lediglich die Existenzberechtigung spezialisierter Chips unterstreichen, womit ich völlig übereinstimme. Es liegt nicht fern, auch den Sound durch die CPU berechnen zu lassen, was bei onboardsound ja auch so der Fall ist. CPU-Rechenleistung wird hierbei für die Soundberechnung abgezweigt. Wieviel % genau kann ich nicht sagen. Jedoch steht zweifelsohne fest, dass die CPU in höhrem Grad belastet wird, als wenn ein dedizierter Chip, z.B. Xfi, diese Berechnungen vornimmt. Genauso sieht es auch mit der Physikberechnung aus. Hier wird es jedoch um einiges rechenintensiver werden, weswegen eine darauf ausgelegte Physikkarte unabdingbar sein wird. Es wird bestimmt auch über die CPU gehen,jedoch nicht mit derselben Effektivität.

Nebenbei. Falls es jemanden interessiert, wovon die etwas ausgefallene Firmenbezeichnung abzuleiten ist: "AGEIA Technologies, Inc. (AGEIA: America, Germany, Egypt, India, America)". Von dort stammen die Gründungsväter des Unternehmens.
 
Zuletzt bearbeitet:
Wenn man sich die derzeitige Problematik von EAX in Verbindung mit DirectSound und Windows Vista vergegenwärtigt, dann kann man nur hoffen, dass etwaige PPUs besser unterstützt werden – auch in Zukunft. Aber wie EAX ist auch PhysX ein proprietärer Standard, und davon halt ich nicht sonderlich viel.

Übrigens, bei On-Board-Sound gibt's doch meistens auch einen extra Audio-Chip, der dann die Berechnungen übernimmt, oder is das nur bei wenigen Mainboards so und ich hab einen falschen Eindruck davon gewonnen?
 
Solche Karten werden sich nie durchsetzten. Gründe wurden ja schon zur Genüge genannt.
Dann könnt ihr gleich für jeden Grafikeffekt eine neue Karte einbauen.

Wie hohl muss man sein um sich eine Physikkarte zuzulegen. Da muss man noch xxx Euro für einen unrealistischen Effekt in irgendeinem Game, welches man gar nicht zockt zahlen. Aber hallo.

Und die Meisten wissen wohl wie faul einige Spieleentwickler sind, wenn es um neue Technologieen geht...
 
Zuletzt bearbeitet:
warum wird kein coprozessor entwickelt, der beim rendern allgemein hilft? ( also die reine fpu leistung erhöht).

auch mit einem quad-core, muss ich beim rendern ca. 1 tag auf einem 10 min. film ( 240 frames) warten, ca. 5-10 min /frame. Muss das sein?

ich brauche keine ageia, da bin ich mit 2x8800 GTS (SLI) oder sogar eine zufrieden...

ich brauche reine fpu-leistung, so ca. 100x mehr als die heutigen quad-cores...wann kommt das endlich?
 

Ähnliche Themen

Zurück
Oben