News Neue Physikkarte von Ageia aufgetaucht

@tonictrinker

Ich hab das beispiel ja nicht gebracht sondern BigChiller und mir geht es in erster Linie dadrum
das er sich gedanken gemacht hat un sich Informiert hat. Im gegensatz zu anderen außerdem
is der programieraufwand bei verwendung der Physik egine vergleichweise gering allerdings nur wenn die Komplette Spieleegine von anfang an für den einsatz entwikelt wird nachträglich das einzubauen is wahnsin dewegen werden bei Ghost Recon nur die Rauchpatikel mittels Physikx simuliert un dient dort nur als Visueller Effekt. Wenn aber die Physik unmittelbar mit dem Gameplay zusammenhäng wird das viel spaßiger.

So genau mit dem Zaun wie du das gerbracht hast wäre das sogar möglich hier wäre der aufwand höher beim Design des Spiels es gibt physikx demos dort wird eine Panzerkette Simuliert beim Zaun müsste man die einzelnen Teile mit Joints verbinden die abreißen können
auch die verormung des materials geht. Man kann Materialeigenschaften festlegen und so holz simolieren was nicht geht is das der zaun echt zerbricht da dann ja das 3dModell berechnet werden müsste vielecht ist das ja mit den Geometrieshadern von DX 10 möglich.
 
@Deathdrep_KO

PPUs kosten im Moment keine 150 - 200 €, ausser du bestehst darauf diese in der Apotheke zu kaufen. Heute braucht keiner mehr als 125 - 130 € dafür ausgeben. Und wenn die PPUs jetzt nicht mehr in 130 nm gefertigt werden würden wäre das auch ok ;-)
 
Es wäre schon gut wenn die Karte in 65nm oder sogar 45nm gefertigt würde.

So könnte man den Stromverbeucht drücken ich denke aber einfach das die Ageia nicht groß genug ist um sich diese fertigung zu leisten.

Un die ganzen leute die Sagen man könnte den chip ja auf die grafikkarte packen un für geringen aufpreis würden sich das dann mehr leute holen.

Nur muss Ageia ja auch die entwiklungskosten wieder reinholen und will schließlich auch was verdienen deswegen wird das wohl nicht kommen unn wenn dann würd die karte nicht 20 sondern 100 euro mehr kosten und bräuchte noch ne dickeren kühler die sind jetz schon groß genug.

Es wäre bestimmt möglich mit der entsprechenden Fertigung eine kleine passive karte zu bauen was aber wegen oben genannten punkt noch nicht möglich ist
 
Ich finde es iwie lustig. Einerseits ist für 80% aller Schreiberlinge hier eine 8800GTS das minimum zum Computerspielen und andererseits sind ca. 80% davon überzeugt, dass keiner physikalische Effekte braucht, bzw. da ne extra Karte für braucht.
 
Die Bilder sind ja Tolle Fälschung.
1. Man sieht nirgens ein Kondensator auf der Karte, komisch wie wollen die denn den Strom kontrollieren.
2. Man sieht nirgens das PhysX Ageia Symbol (Bild)
3. Ein Nvidia Grafikkarten Kühler (man sieht ja auch das Nvidia symbol), der zur einer 7600 GT oder 7900 GT gehört.
Eine Billige Fotomontage.

zusatzt: Welche normale PCI Karte hat eine Verschlusssicherung?
 
Zuletzt bearbeitet von einem Moderator:
Der Spiele-Markt hat die Karten in den letzten Jahren doch nicht wirklich angenommen , jetzt mit einer noch größeren Karte aufzuwarten ist entweder ein gewagter Versuch oder schlechtes Managment. Da wird sich auch nichts drann ändern wenn hier ein paar Fans das ganze Marketingmaterial per Drag&Drop herposten. Ich denke auch das man mehr davon hätte wenn Sie ihr KnowHow an die großen Platzhirsche verkaufen .
 
jo ist mir gar net aufgefallen.

Hoffentlich bringen die eine Neue Karte die weniger strom verbraucht und ohne Lüfter ausskommt obwohl ja niemand mekkert das ihre graka 8800 gtx zb einen lüfter hat der alle anderen Lüfter übertönt ist auf jedenfall bei mir so hab ne 8800gts und der cpu lüfter vom InfinityKühler ist leiser sogar meine Raptor is lauter.
 
lordberti schrieb:
...
zusatzt: Welche normale PCI Karte hat eine Verschlusssicherung?
In der News steht doch ausdrücklich, dass die Karte (was immer sie ist) PCIe x8 oder x16 ist. ;)
 
Ich hype diese karte nicht obwohl ich denke das sie gut ist ich selber benutze hobbymäßig
die physikx egine jedoch ohne karte und nur für kollisonen.

Ageia möchte sein KnowHow für sich behalten Nvidia verkauft ja auch nicht ihr wissen an Intel.
 
Hab nie etwas gegenteiliges behauptet dank deines Hinweises bin ich jetzt schlauer :)

Hab die news aber schon auf einer anderes Seite gelesen also könnte die Nachricht das eine neue Karte kommt stimmen aber das bild ist eine Fälschung.
 
Könnte doch keine fälschung sein es gibt auch kodensatoren die flach sind un so ählich wie chips ausehen könnten die teile rechts auf der Karte sein nur komisch ist das auf der Karte die dann wohl ein Prototyp ist nirgens ageia draufsteht könnte aber auch daran liegen das die karte extern gefertigt wird.
 
selfish schrieb:
Dann könnte man also praktisch alles auf einer Grafikplatine realisieren? Der Sound soll ja jetzt auch schon drauf...
Deine Übertreibungen sind fehl am Platz. Ich hab nie davon gesprochen, drei oder mehr Chips auf einer Karte unterzubringen. Eine Soundkarte hat allein schon deshalb eine Daseinsberechtigung als Extra-Karte, weil es nicht nur verschiedene Sound-Chips und -Hersteller gibt (und bei PPUs gibt's ja bisher quasi nur einen Standard, nämlich PhysX von Ageia), sondern auch je nach Verwendungszweck unterschiedliche Anforderungen an die Features und Anschlüsse an jene gesetzt werden.

selfish schrieb:
wie gesagt, ich zweifle nicht daran,dass man es so verwirklichen kann, jedoch glaube ich , dass daraus ein gemindertes Leistungspotential resultiert.
Ich glaub, wir wissen beide zu wenig Bescheid über Chip-Design, um das wirklich beurteilen zu können. Ich kann mir aber vorstellen, dass bei einem durchdachten Design GPU und PPU sogar gewisse Synergien entwickeln könnten. Heutige GPUs und CPUs sind ja auch schon enorm komplex und vereinen diverse, spezialisierte Recheneinheiten in einem Chip – so schlecht kann das also eigentlich nicht sein.
Aber mit deiner Sicht der Dinge würden wir auch heute noch die 2D- und 3D-Grafikeinheit auf zwei getrennten Karten haben. Kein schöner Gedanke.

selfish schrieb:
Man darf die PPU nicht als kleines Feature ansehen; künftig wird sie äquivalent zu CPU und GPU sein, zumindest für die Spielesparte.
Ich weiß nicht, woher du deine Informationen beziehst, aber meiner Meinung nach muss sich das erst noch herausstellen. Vor allem dann, wenn man bedenkt, dass in den nächsten Jahren CPUs mit 16, 32 und weiß Gott wievielen Kernen auf uns zukommen. Nicht umsonst denkt man jetzt anscheinend schon laut über Echtzeit-Raytracing in Spielen nach, weil man bald eh nicht mehr weiß, wohin mit der Leistung von so vielen CPU-Kernen.
 
Zuletzt bearbeitet:
RaiseHell schrieb:
... Eine Soundkarte hat allein schon deshalb eine Daseinsberechtigung als Extra-Karte, weil es nicht nur verschiedene Sound-Chips und -Hersteller gibt (und bei PPUs gibt's ja bisher quasi nur einen Standard, nämlich PhysX von Ageia), ...
Warum ist dann EAX nicht mit im Grafikchip? Ist ja auch nur ein Standard und die Anforderungen an Spielsoundeffekte sind nichzt unterschiedlich .

RaiseHell schrieb:
...Ich glaub, wir wissen beide zu wenig Bescheid über Chip-Design, um das wirklich beurteilen zu können. Ich kann mir aber vorstellen, dass bei einem durchdachten Design GPU und PPU sogar gewisse Synergien entwickeln könnten. Heutige GPUs und CPUs sind ja auch schon enorm komplex und vereinen diverse, spezialisierte Recheneinheiten in einem Chip
Es gibt keine CPU mit integriertem 3D-Hardware-Renderer.


RaiseHell schrieb:
... dass in den nächsten Jahren CPUs mit 16, 32 und weiß Gott wievielen Kernen auf uns zukommen.
Och bitte, bei den lächerlichen Fließkommaleistungen ajktueller Prozessorkerne bräuchtest du über hundert solcher Kerne, mit der Frequenz, die sie jetzt als Dual-Cores haben, um an PhysX 1 heranzukommen. Wahnsinnig energieeffizient - 50 W mal 50 sind?

RaiseHell schrieb:
... Nicht umsonst denkt man jetzt anscheinend schon laut über Echtzeit-Raytracing in Spielen nach, weil man bald eh nicht mehr weiß, wohin mit der Leistung von so vielen CPU-Kernen.
Da verstehst du was falsch, man denkt auch schon seit zwei jahren über dedizierte Raytzracing-Chips nach - also Echtzeitraytracing fern vom Hauptprozessor.

Zu viel Leistung für Spiele wird auch in 50 Jahren kein Prozessor haben, keine Sorge, es gibt immer Ideen, wie man Leistung einsetzen kann, Ideen, wie man Leistung spart, sind eher das Problem. Doof ist natürlich, dass man in Spielen so vieles nicht parallelisieren kann und Multicore eben an sich für Spiele nicht so wahnsinnig viel Sinn macht, deswegen reicht die Leistung noch so vieler Extra-CPU-Kerne dennoch bei weitem nicht an spezialisierte Chips heran..
 
Zuletzt bearbeitet:
Also ich finde die Idee mit den Pyhsikbeschleunigern revolutionär. Die Argumente von wegen, so ne Karte würde sich nur um mehr Geballer und Explosionen und son Kram kümmern, halte ich für unangebracht. Wenn eine reelle Physik in spielen zum Tragen käme, könnte man endlich mal wieder völlig neue Spielprinzipien entwickeln. Die bisherigen Demos stellen nur die Möglichkeiten dar und da haben sie sie eben in Form von umherfliegenden Splittern usw. demonstriert. Ich finde auch solche Vergleiche mit separaten 2D- und 3D-Karten nicht relevant, da sich beide Dinge um grafische Anforderungen drehen und da ist es nunmal naheliegend, dass man beide Dinge in einer Karte vereint.

Was die Umsetzung in Spielen betrifft, liegt das gänzlich in der Hand der Entwickler. Es gibt wie anfänglich der Diskussion schon erwähnt ein SDK, dass Ageia KOSTENLOS zur Verfügung stellt, damit die Spieleschmieden die Karten nutzen könnten. Aber wie ich kürzlich in einem Artikel gelesen habe, legen viele Entwickler ihr Augenmerk lieber auf einen zweiten CPU-Kern oder die HavokFX-Engine, für die sie jedoch bezahlen müssen.

Ich finde, man sollte eine neue Technik nicht verteufeln, nur weil sie eine extra Karte benötigt. Letzten Endes wird sich eine separate Karte, die für die Beschleunigung bzw. Berechnung der Physik zuständig ist, sicherlich durchsetzen. Ich fände es nur schade, wenn das erst geschieht, wenn Ageia durch einen der Großen am Hardwaremarkt geschluckt würde. Auch wenn das für die Spielergemeinde zwar nützlich wäre, so finde ich, dem Erfinder sollte die Anerkennung gebühren. Doch der würde dann schnell vergessen werden. Ich schaue positiv in Richtung Physikbeschleuniger-Karten. AGEIA 4 Life!

Ich mach mich schonmal auf dumme Kommentare gefasst, die ich dann gelassen ignorieren werde =)
 
MountWalker schrieb:
Warum ist dann EAX nicht mit im Grafikchip? Ist ja auch nur ein Standard und die Anforderungen an Spielsoundeffekte sind nichzt unterschiedlich .

Du hast überhaupt nicht verstanden was er meint. Je nachdem ob ich Studioqualität oder einfach nur Gedüdel brauche, muss ich die Soundkarte mit unterschiedlichen Anschlüssen und Elektronik versorgen, die hier einen erheblichen Unterschied auch im Preis ausmachen. Btw. EAX gehört Creative und ist kein freier Standard.

MountWalker schrieb:
Da verstehst du was falsch, man denkt auch schon seit zwei jahren über dedizierte Raytzracing-Chips nach - also Echtzeitraytracing fern vom Hauptprozessor.

Und kann man die im Laden kaufen? Selbst bevor sich Raytracing in Spielen durchsetzen wird, hat man schon die Möglichkeit es mit verfügbarer Hardware ausführen zu lassen.

MountWalker schrieb:
deswegen reicht die Leistung noch so vieler Extra-CPU-Kerne dennoch bei weitem nicht an spezialisierte Chips heran.

Und deshalb muss man für jeden Mist einen eigenen spezialisierten Chip entwickeln oder kaufen? Demnächst muss man sich dann wohl noch eine Java- oder .net-Beschleunigerkarte beschaffen.
Seht das doch mal anders. Begreift die GPU nicht als reine Graphik-Lösung, sondern wie mit Tesla vorgestellt als guter Vektor-Rechner (bzw. GPGPU), wie man ihn für rechenintensive Probleme verwendet. Statt einen Haufen spezialisierter Karten zu beschaffen, steckt man sich je nach Bedarf mehr CPU oder GPGPU in das System.

Allgemein zu den Leuten hier: Beschäftig euch doch mal mit der Simulation von Mehrkörpersystemen und schaut euch an, was dort für Rechnungen durchgeführt werden, bevor ihr hier schreibt, dass das irgendwelche komsichen physikalischen Rechnungen sind, die spezielle Hardware erfordern. Solche Probleme, auch in der FEM, BEM etc. werden immer auf mathematische Modelle reduziert, die auf Matrizenrechnung bzw. Lösen von großen Gleichungssystemen hinauslaufen. Es ist immer das gleiche, nur die Bedeutung der Variabeln ändert sich, was abe rfür die reine Mathematik (und damit die Hardware) völlig egal ist.

Letzendlich ist es auch völlig egal, wie die Physik in einen Spiel entsteht, hauptsache sie passt dazu und es macht Spass. Meint, nur weil man viel Berechnen kann ist das noch lange kein Grund, das es in Spielen enthalten ist, immerhin ist der Implementierungsaufwand für eine größere Anzahl an zerstörbarer Gegenstände enorm.
 
Zuletzt bearbeitet:
fandre schrieb:
Du hast überhaupt nicht verstanden was er meint. Je nachdem ob ich Studioqualität oder einfach nur Gedüdel brauche, ...
habe ich sehr wohl verstanden, aber EAX hat eben damit nichts zu tun, man könnte auch sagen, berechnen wir eben EAX auf der Grafikkarte und lassen nur das auf Soundkarten, was Musikerkarten haben. Lassen wir einfach EAX vom Shaderchip berechnen, so wie auf der XBox360 empfohlen wird, einen CPU-Core eax-artige Effekte berechnen zu lassen - dort macht das kein Soundchip.

fandre schrieb:
... Und kann man die im Laden kaufen? Selbst bevor sich Raytracing in Spielen durchsetzen wird, hat man schon die Möglichkeit es mit verfügbarer Hardware ausführen zu lassen.
Wo iost denn nun das Raytracing-Spiel im laden zu kaufen? Die Quake-Raytracing-Tech-Demos laufen auf keinem einzigen Gamer-PC flöüssig, sondern werden auf Rechnerclustern gerendert - so ein rechnbercluster verbraucht locker mal mehrere tausend Watt und das Buzdget eines Gamers dürfte dafür auch nicht reichen. Raytracingchips werden freilich erst dann Rasterizer-Chips ersetzen, wenn sie schönere Optik zu weniger Preis bringen und das wird eben noch Jahre dauern, siehe Artikel dazu.

fandre schrieb:
... Statt einen Haufen spezialisierter Karten zu beschaffen, steckt man sich je nach Bedarf mehr CPU oder GPGPU in das System.
Die gleiche Physikleistung durch einen Shaderchip (Grafikchip) kostet aber viel mehr elektrische Leistung, als der Spezialchip. Ich kloppe mir lieber eine 27-Watt-Physikkarte in den Rechner statt die gleiche Physikleistung mit einer zusätzlichen 400-Watt-grafikkarte zu erreichen - die normale Grafikkarte kann ich dafür nicht nehmen, weil die mit der grafikshaderberechnung schon voll ausgelastet wird...
fandre schrieb:
Solche Probleme, auch in der FEM, BEM etc. werden immer auf mathematische Modelle reduziert, die auf Matrizenrechnung bzw. Lösen von großen Gleichungssystemen hinauslaufen. Es ist immer das gleiche, nur die Bedeutung der Variabeln ändert sich, was abe rfür die reine Mathematik (und damit die Hardware) völlig egal ist.
Und genau deshalb ist ja eben ein spezialisierter Chip, der nichts anderes als diese Rechnungen kann bei gleicher elektrischer Leistung so viel rechenstärker als eine generalistische Lösung...
 
fandre schrieb:
...Je nachdem ob ich Studioqualität oder einfach nur Gedüdel brauche, muss ich die Soundkarte mit unterschiedlichen Anschlüssen und Elektronik versorgen, die hier einen erheblichen Unterschied auch im Preis ausmachen.

Kann ich das bei der Physik nicht ähnlich sehen? Ati oder nVidia können zwar Physikberechnungen im Chip integrieren, aber an die Leistungsfähigkeit einer richtigen Karte kommen sie nicht an. So erreichen beide vielleicht in vier oder fünf Jahren die Leistungsfähigkeit einer heutigen Karte, aber in der Zwischenzeit ist die Physikkarte natürlich auch wieder sehr viel leistungsfähiger geworden.
Ich denke nicht, das weder ATI noch nVidia mal einfach so einen völlig neuen Chip integrieren können. Zudem heutige Grafikkarten sowieso nicht gerade "klein" sind um einen zusätzlichen Chip aufzunehmen oder gar noch im richtigen Chip zu integrieren. Die Synergien werden sich wohl bis auf die Spannungsversorgung arg in Grenzen halten. Aber mit dieser Behauptung lehne ich mich zugegebenermaßen ziemlich weit aus dem Fenster. (Macht aber anscheinend nichts, tun viele andere hier ja auch :D)
 
@ fandre:

Danke, genau so war's gemeint.


MountWalker schrieb:
Es gibt keine CPU mit integriertem 3D-Hardware-Renderer.
Hab ich nirgendwo behauptet. Aber wenn's nach so manchem hier ginge, hätten wir FPU, SSE & Co. auch auf eigenen Erweiterungskarten.


Dass ein auf Physikberechnungen spezialisierter Chip effizienter und leistungsfähiger ist, habe ich nie bezweifelt oder bestritten, ganz im Gegenteil. Ich wehre mich allerdings gegen die fixe Idee, das Ganze über eine eigene Karte zu realisieren, wenn eine GPU-PPU-Kombination – in welcher konkreten Form auch immer – einige nicht zu unterschätzenden Vorteile hätte.

RaiseHell schrieb:
Zum Einen würden sich die Physik-Beschleuniger wesentlich schneller durchsetzen, weil im Kopf des Konsumenten eine Extra-Karte eben viel deutlicher mit Extra-Kosten verbunden wird, und zusätzlich so manch einer nicht einen extra Slot dafür opfern will (ich hab zB Soundkarte, TV-Karte und SCSI-Controller, da würde sich auf den meisten aktuellen Boards gar keine PhysX-Karte mehr ausgehen).

Zum Anderen würde das in der Massenproduktion die Kosten senken, weil ein zusätzlich integrierter Chip auf einer Grafikkarte in der Produktion sicher günstiger kommt, als das Ganze auf einer eigenen Karte zu realisieren.

Außerdem könnten dann auch Spieleentwickler davon ausgehen, dass viele Konsumenten auch wirklich einen PhysX-Chip haben, wenn er sowieso standardmäßig auf Grafikkarten verbaut wird. Dadurch würden sich entsprechend optimierte Spiele schneller am Markt etablieren.

Und laut jüngsten Meldungen haben ja AMD und nVidia schon entsprechende Umsetzungen in Entwicklung. Welche der beiden Varianten sich dann eher durchsetzt, kann man glaub ich recht gut erahnen.
 

Ähnliche Themen

Zurück
Oben