News Leben Ageias PhysX-Karten unter Nvidia weiter?

Nvidia wird die Dinger schon ordentlich pushen -- schließlich brauchen sie jetzt keine Angst mehr haben, dass eine Fremdfirma ihnen den Markt für PPUs wegnehmen. Wenn dann eine Idee gefunden ist, dass auf der Graka einzubauen werden einfach die PPU Karten eingestellt.
Wobei ich denke, dass eine eigene Karte durchaus sinniger ist, dadurch bleiben die Grafikkarten wohl billiger und man kauft nur das was man will. Wer brauch in nem Office Pc ne Karte mit Physiksupport?
 
Ich sehe es eher so wie M4rvin. Physikberechnungen werden in Zukunft immer Komplexer werden. Ein Physikchip kann diese Berechnungen enorm viel schneller ausführen als eine CPU. Im Prinzip ist das Ganze doch analog zu den ersten Grafikkarten.
 
Mein Good das war ja mal wider ein schuss aus der Hüfte !!
Und weg ist Ageia !!!
Genau soo wie 3 DFX ^^^^
 
Sen$ schrieb:
Mein Good das war ja mal wider ein schuss aus der Hüfte !!
Und weg ist Ageia !!!
Genau soo wie 3 DFX ^^^^

tja und wieder einer, der ohne bissl zu lesen aus der hüfte antwortet

... sonst wüsste eer, das derweilen eine andere quintessenz hier zusammengerafft wurde..

=)
 
Mal schauen :) Wen dann WOW !
 
Kann man diese Physikbeschleuniger nicht vielleicht professionell einsetzen? In so eine CAD Workstation? Vielleicht zum Berechnen von Strömungen an einem Auto im Windkanal oder so?
 
Die Karten werden abverkauft, der Support wird noch einige Zeit weiterlaufen und wenn eine überwältigende Nachfrage nach PPU-Karten besteht, werden auch noch welche produziert, das kann man aus dem Text lesen.
Wen man Nvidia kennt, dann weiß man, in spätestens einem Jahr ist PPU tot und Support beschränkt sich auf ein FAQ.
 
Wenn Ati soetwas nicht auch in ihre Karten einbaut, könnten baldige Benchmarks/GraKavergleiche ein wenig Krumm sein.
In einem PhysX-unterstützten Spiel rocken die GF-Karten "derbe" ("alter" ;)) und in nicht-PhysX-unterstützten Spielen rocken dann die (im gleichen Preissegment liegenden) Ati-Karten... dann weiß man auch net mehr, was man kaufen soll :D

Gibt's eigentlich eine Liste an Spielen, die diesen "Kram" bisher unterstützen?
 
47) Norebo
Und ganau das bezweifle ich sehr stark.
Nvidia wäre schließlich nicht Nvidia wenn sie den Aufkauf von Ageia nicht
propagandistisch und produktmäßig ausschlachten würden. ;-)

NV freut sich doch regelrecht einen Steifel in den Arsch,
wenn sie noch mehr Karten verkaufen können. Da darf der Kunde
dann kräftig zahlen. Das ist doch schön für NV. :evillol:

Zügige Implementierungen in die GeForce-Reihe wird es daher
so schnell nicht geben. NV wird sich darum auch hüten, den
softwareseitigen Support für PhysX einzustellen. Im Gegenteil -
sie werden ihn zunächst sicher stärker ausbauen. Zumal doch
gerade die neuen PhysX-Karten bereits vor der Tür stehen.
Ich warte eigentlich täglich hier auf News in der Richtung...

Erst wenn sich in frühestens 2 Jahren gezeigt hat, das das neue NV-Image
und die Karten nicht erfolgreich sind, dann werden wir vll. erleben, dass die PPU
als eine Art Co-Prozessor neben der GPU auf einer Platine vereint wird.

Wir werden ja sehen wer recht behält!
*g*
 
Zuletzt bearbeitet:
Beater schrieb:
Wo ATI sich mühevoll in Zusammenarbeit mit Havoc was entwickelt kommt nVidia und kauft sich einfach die Firmen ein die sowas können. Jaja Monopole 4 Life :freak:

Havok ist ein gutes Stichwort. Nachdem ja Intel Havok gekauft hat, dürften denen doch eher daran gelegen sein, die Physikberechnungen auf einen Prozessorkern zu legen.
Eine weitere Legitimation für einen Multi-Core Prozessor!
Das gleiche gilt für AMD. Lieber die Physik durch einen Kern berechnen lassen, als von einer dedizierten PPU von Nvidia.

Sicher sind die Physikberechnungen durch den Prozessor nicht so effizient wie durch eine PPU, aber jeder hat einen und AMD und Intel können mehr Multi-Cores verkaufen.
 
@ Barmer Jeder der sich heute einen Spiele-fähigen PC zusammen stellt kauft doch sowieso einen Multi-Core-Prozessor, dieses Argument hätte vor 2-3 Jahren mal gezogen aber so ist es doch wohl eher sinnlos.
Gruß
 
Ich denke mal sie müssten ein paar große Studios gewinnen und das Ding wird so steil hochgehen wie bei den MultiCore CPUs (ja krummer vergleich). Aber wenn man bedenkt, wenn z.B. die Source Engine Ageia Chips supportet, dann würde zumindest bei vielen Leuten eine kommen -- falls man richtige Vorteile hat, nich nur 2 Kisten mehr im Level. Für 50 Euro würde ich dann eine kaufen, auch wenn Anfangs nur 2,3 Spiele aus meiner Sammlung es können.
Und naja falls sie Blizzard gewinnen könnten hat das Ding eh gewonnen, denn die WoW Kunden kaufen ja alles für ihr Spiel ;)
 
Da physikalisch exakte Berechnungen vor einiger Zeit noch von Supercomputern durchgeführt wurden, da sie sehr komplex sind und es immer vorkommt dass Massen andere Massen beeinflussen, denke ich dass eine CPU alleine oder GPU alleine mit einer derart schnellen (ECHTZEIT) Berechnung einfach überfordert sein werden.

Ich rede hier nicht von einem Ball der zwei mal auf den Boden aufschlägt, sondern von tausenden Partikeln, etwa bei Kriegsspielen, wenn Explosionen auftreten usw...
Da braucht es einen Chip der totsicher und 100% in Echtzeit Berechnen kann da hilft auch kein SSE4,5,6,7 Befehl!

Eine Integration des Physikchips in die Grafikkarte halte ich persönlich für klug, da die Position jedes Objektes in Interaktion mit einem anderen Objekt neu gerendert werden muss. Und wenn da kein PCI Bus bandbreitenbeschränkend dazwischen ist umso besser.
 
Was auch wichtig ist sind z.B. Flüssigkeitssimulationen (auch für Gase/Nebel) und Kleidungssimulation o.ä. Das wäre auch alles abgedeckt
 
Zum 10.000 mal ... CPUs oder GPUs ersetzen keine PPU. Eine CPU ersetzt ja auch keine GPU, trotz 4 Kerne.

Und selbst wenn es geht: Niemand will Power seiner GPU für PPU abgeben, man will schließlich in höchster Auflösung und max Details flüssig zocken.... da bleibt garnix für die Physik übrig!

Ich hoffe nvidia integriert teile in die Graka, dann gibt es eine Schnittstelle, diese wird benutzt und dann kommen standalone P-Karten richtig in fahrt. Man muss halt erst ein paar Zwischenschritte einlegen.
 
@barmer

Also das Intel gekauft hätte wäre mir jetzt neu! Ich berücksichtige damit den Artikel von der ATI Webseite (link im Post weiter oben). Darin steht eindeutig das ATI bzw AMD mit Havok zusammen arbeiten und das nicht erst, wie NV mit Agaia, seit letzter Woche sonder schon seit 2 Jahren. In so fern war es für NV notwendig diesen Schachzug zu machen. Eine eigene Physik Engine zu entwickeln oder mit einem Partner aufzubauen wäre zu kostpsielig geworden und hätte auch zu lange gedauert. So haben sie halt etwas Geld in die Hand genommen und einfach eine Schmiede gekauft.

Aber um nochmal auf den Punkt zu kommen, AMD hat hier schon jahrelangen Vorsprung oder anders gesagt, die haben es schon lääängst gerafft das hier noch potential und nachholbedarf ist.

Nächster Punkt der mir sauer aufstößt ist, warum sollte denn ein Physik Chip UNBEDINGT mit auf dem Grafkboard sein????? Macht doch keinen Sinn denn so kaufst jedes mal, mit jeder Grafikkarte, nen neuen -> jedesmal quasi nen fuffi für nix. Als extra Karte (am besten auf PCIe mit SLI und/oder Crossfire kompatibilität) kauf mich mir eine, die sicherlich 2-3 Grafikboardgenerationen überlebt.
Zudem als Einzelprodukt (wie es im übrigen auch ATI vor hat!!!) wäre so gewährleistet das auch ATI Kartenbesitzer sich doch noch ne NV ins Gehäuse stecken und umgekehrt natürlich auch.

AMD/ATI ist hier also nen guuuten Schritt vorraus, auch wenns momentan nicht so aussieht. Leute, erstmal die Hintergrundinfos lesen und dann schreiben! Andersrum wird das sonst nix. ;)
 
Also das Intel gekauft hätte wäre mir jetzt neu!


Soviel zum Thema Hintergrundinfos lesen, das ging als es aktuell war durch jede Website die auch nur im entferntesten was mit Hardware zu tun hatte.

KLICK

Darin steht eindeutig das ATI bzw AMD mit Havok zusammen arbeiten und das nicht erst, wie NV mit Agaia, seit letzter Woche sonder schon seit 2 Jahren.

Und?
nV arbeitet auch mit Havok zusammen und das nicht erst seit gestern.
Google mal nach havok FX und schau dir das Datum der Pressreleases an, du wirst staunen. ;)

Auch interessant diese News vom November 2007:
Nach dem Kauf von Havok durch Intel ist es ruhig geworden um die bis dahin als Havok FX bekannte Software, die Physikberechnungen auf Grafikchips durchführen sollte. Laut Richard Huddy von AMD, einem ehemaligen ATi-Mitarbeiter, ist es nun unwahrscheinlich geworden, dass Havok FX jemals veröffentlicht oder in vielen Spielen eingesetzt werden wird. Auch Jen-Hsun Huang, CEO von Nvidia äusserte sich ähnlich und sprach von negativen Folgen des Kaufes von Havok durch Intel.
Intel

Über die Gründe von Intel kann nur spekuliert werden, aber offensichtlich kann Intel nicht sonderlich daran interessiert sein, dass Grafikchips zur Zeit in Sachen Physikberechnungen den Prozessoren den Rang ablaufen. Intel stellt keine Grafikkarten her und die integrierten GPUs in Intel-Chipsätzen sind vermutlich auch für Havok FX zu schwach. Böse Zungen behaupten daher, dass Intel Havok nur gekauft hat, um unliebsame Konkurrenz zu blockieren und zu verhindern, dass Spieler lieber in neue Grafikkarten statt Prozessoren investieren - zumindest so lange, bis Intels Larabee erscheint.

Und wie lange nV mit Ageia bereits zusammengearbeitet hat, denke ich, kann hier absolut niemand beurteilen.
Mit absoluter Sicherheit keine 2 Wochen, denn Übernahmen brauchen viel Zeit.

In so fern war es für NV notwendig diesen Schachzug zu machen. Eine eigene Physik Engine zu entwickeln oder mit einem Partner aufzubauen wäre zu kostpsielig geworden und hätte auch zu lange gedauert.

Siehe Havok FX.

AMD/ATI ist hier also nen guuuten Schritt vorraus

Nicht wirklich.

Leute, erstmal die Hintergrundinfos lesen und dann schreiben! Andersrum wird das sonst nix.

Solltest vielleicht gleich damit anfangen. ;)
 
Als Zusatzchip auf Grafikkarten werden Physikchips erst recht floppen, weil sie die Grafikkarten auch noch verteuern, womit wir dann wieder beim gleichen Problem wären wie jetzt: Wenn sie keiner kauft, gibt es keine Unterstützung.

Vor allem sinkt ja auch die Zielgruppe drastisch, weil dann nur noch Leute Physx-Chips haben können, die Nvidia-Karten des gehobenen Preis-Segments haben.

Mal ganz davon abgesehen wär es nicht die erste Entwicklung, die von Nvidia nur aufgekauft wurde, um Konkurrenz vom Markt zu schaffen und die dann in den Schubladen von nvidia verschwunden ist.
 
...nenene - nix verschwunden... das ist technikpotential, wasnatürlich genutzt wird, gell?
das wären sie verfdammt blöd, wenn sie das in eine schublader verstecken täten... :p
 
Zurück
Oben