News PhysX-Beschleunigung auf ATi Radeon HD 3800?

@ Deinorius

Natural Motion nutzt PhysX via CUDA ;)

cYa
 
swz.alucard schrieb:
Lücke? NV hat jedem anderne Graka-Hertsellern freigestellt ebenfalls PhysX zu untersützen. Sie würden es sogar bevorzugen um so eine Basis gegen Intel/Havok zu haben. Evtl kommt wirklich bald eine offizielle Unterstpzuung von AMD/ATi damit es in dem Gebiet mal vorran geht.

Vollkommen unentgeltlich ist also jeder Hersteller dazu eingeladen PhysX mit seinen Grafikkarten zu beschleunigen? Naja, also ich weiß nicht. Nvidia kauft den Kram erst für viel Geld, und dann sollen die das umsonst herschenken?

Kampf gegen Intel hin oder her - so ganz kann ich das nicht glauben.
 
Nvidia hat nicht viel für Ageia bezahlt ... mit CUDA muss die Konkurrenz Teile der Architektur verarten und nV bindet die Unternehmen an sich bzw. generiert eine Abhängigkeit.

cYa
 
Naja - mag ja vielleicht sein. Nur kann ich aus dieser News nirgends herauslesen, dass Nvidia den Kram für lau hergeben will. Da steht zwar was von "offener Standard" - was ja aber nur heißt, dass ihn jeder einsehen kann - dann aber auch "man kann drüber verhandeln".

@Übersoldier75: Jep, hast Recht. Wird vermutlich niemals AMD-Chipsätze für die unglaublich vielen Nvidia-CPUs geben, die da in Konkurrenz zu Intel seit Jahren produziert werden ...
 
Zuletzt bearbeitet:
Gekauft oder nicht!, so ein Kuhandel gab es schon einmal zwischen Intel und AMD halt, Intel hat 64BIt bekommen und AMD SSE3 oder wie das heisst, also für unmöglich halt ich das nicht!

Beziehungsweise ist es jetzt kein Kuhandel mehr!:D
 
AMD bekommt PhysX, dafür bringen die nV bei, wie man DX10.1 implementiert :lol:

cYa
 
Ganz egal wer was bekommt, Hauptsache Intel muss seine eigene Suppe kochen, und das wird nicht einfach bei der Konkurenz!:D
 
Hauptsache die CPU wird so stark wie möglich entlastet. Mainboard + Ram + CPU zu wechseln bzw. das ganze System neu aufsetzen nur weil mal wieder die CPU Leistung am Ende ist...

Alle paar Jahre eine GPU zu kaufen ist hingegen nicht so dramatisch, alte raus, neue rein und weiter gehts.(vielleicht noch ein Ram upgrade) Wenn die Spiele in Zukunft weniger CPU lastig programmiert werden, dann halten vielleicht auch mal Systeme über 4- 5 Jahre.(ist zwar unwahrscheinlich KI wird weiterhin die CPU übernehmen)

Hoffentlich bleibt dann mal mehr Rechenleistung der CPU, für die KI übrig.

Daher begrüße ich den Schritt Richtung PhysiX in der GPU und weg von der CPU.
 
Zuletzt bearbeitet:
Eine gute CPU hält mit OC doch so schon locker 2 Jahre durch. Würde wirklich fett auf Quads optimiert, wäre mir das deutlich lieber als die ohnehin schon überforderte GPU noch weiter zu stressen.

cYa
 
DA aber nur ne schnelle Graka auch nur schnell mit ner schnellen CPU ist, wird das wohl nix mit 4-5 Jahre, das hat wohl eher weniger damit zu tun aufzurüsten, sondern mehr Details die smoother laufen mit gleichem SYStem, denke die Anforderungen an Physik wwerdem auch mit der Zeit immer höher werden, von daher.

Das liegt aber auch teilweise daran, dass nicht mehr soviel wie früher optimiert wird!;)

Wenn ich damals an 3DNow! von AMD denke(20% schneller), manche Spiele, und jetzt dran denke wieviele zusätzliche Befehle ne heutige CPU hat, ist das lächerlich!:evillol:

@y33h, du wirst lachen, meine CPU wird jetzt im November 2Jahre und hält bestimmt noch locker 1-1,5 JAhre durch! iSt übrigens nicht die, die in meiner Sig steht, und ist auch nicht übertaktet!
 
Zuletzt bearbeitet:
Warum limitiert denn die CPU überhaupt... Weil die Games teilweise zu stark von der Leistung der CPU abhängig sind. Schau dir Bioshock an das Game habe ich mit einem single core und einer 88GTX in DX 10 auf maximum gezockt(Vista 64). Wenn doch nur alle Spiele so gut programmiert währen...

Mir ist es deutlich lieber alle 2 Jahre die GPU zu wechseln als alle 2 Jahre die CPU und meistens auch noch das ganze Mainboard. Aktuelle GPUs sind eigentlich nicht überfordert nur in Crysis, aber in den meisten könnte man die Physik voll aufdrehen.

PS: Der single Core war ein A64 3800+ und hat von 2004-2008 durchgehalten.(immer noch zu wenig für meinen Geschmack)

PPS: 1600*1200 mit 4xAA/16xAF auf einem 22" Röhre 120 Herz(GTX@Ultra)
 
Zuletzt bearbeitet:
Ne Single CPU und ne 8800GTX, ganz schön mutig, was heisst maximum? Das heisst für mich 1680*1050 mit 8 fachem AA un 16*AF:D Wenn du es in 1280*1024 ohne AA und AF gezockt hast, ist das für mich kein maximum, das hat meine alte 6800GT auch geschafft!:D

Crysis hab ich auch gezockt, natürlich hab ich nicht ständig Fraps im Hintergrund laufen!:D

Und für DX10 brauchste Vista!, ist dir schon klar oder? Weil ne Single CPU bei VIsta, und dann Performance-Einbrüche wundert mich nicht!:cool_alt:
 
Also Wenn ATI das wirklich hin bekommt, denke ich mal, werden die Effekte auch besser. UT3 und andere Spiele hatten dies ja nur als kleine Zugabe, denn nicht viele hatten die (glaube ich) 150€ nur für die PhysX Karte.

@Claus1221

Claus1221 schrieb:
Was hat nVidia dann von dem Aufkauf von Ageia? Ausser dass die Technologie entscheidend vorangetrieben wird.

Nvidia hat die PhysX-Technologie Gekauft und ich denke mal das ATI gebühren Zahlen muss, sobald sie dies Offiziell unterstützten. Auch sind alle Karten bis auf GTX260 und GTX 280 und die neue GTX 9800+ nicht mit dem PhysX chip ausgestattet, und so muss eine Software diese arbeit übernehmen. Da bei denen die GPU diesen Job mit erledigen muss Fehlt rechen power. Ob dies sich gravierend auf die FPS auswirkt müssen Tests zeigen. Fakt ist aber das Hardware Lösungen meist um einiges Effektiver arbeiten als Software.
 
Das PhysX bisher keine bahnbrechenden Fortschritte in Spielen gebracht hat sollte meiner Meinung nach nicht in einem Mangel der PhysX-API oder bei den Spieleentwicklern gesucht werden, sonder in dem simplen Fakt, daß sich die Spieleentwickler damals nicht exklusiv auf PhysX festlegen konnten, ohne 99% der Kunden ausklammern zu müssen. D.h. in Spielen, die PhysX unterstützt haben konnten nur Effekte eingebaut werden, die keinen Einfluß auf das Spieldesign hatten, um Käufer ohne PhysX-Karte nicht zu benachteiligen.
Das PhysX mehr kann wurde ja schon in den UT3-Level, die speziell für PhysX designt wurden gezeigt.
Falls ATI sowohl PhysX (mittels Grafikkarte), als auch Havok (mittels CPU) unterstützen würden, gäbe es vielleicht zwei Techniken, die aber dennoch allen potentiellen Kunden zur Verfügung stehen würde und es für die Spieleentwickler endlich möglich wäre auf Physikbeschleuniger zugreifen zu können, die auch wirklich bei vielen Käufern vorhanden ist.
Welches System sich am Ende durchsetzen wird, wird dann die Zeit zeigen, aber solange Nvidia PhysX exklusiv und AMD/Intel Havok exlusiv unterstützen wird sich meiner Meinung nach nichts von beiden durchsetzen, da Nvidia alleine einen Standard gegen AMD/Intel nicht durchsetzen kann und andererseits CPUs vorerst gegenüber einer Grafikkarte bei Physikberechnungen nicht mithalten kann.

Eine spannende Situation ist es auf alle Fälle und ich hoffe, egel für welche Firmen diese Entwicklung ausgehen mag, es positiv für die Kunden ausgehen wird.
 
jan4321 schrieb:
Auch sind alle Karten bis auf GTX260 und GTX 280 und die neue GTX 9800+ nicht mit dem PhysX chip ausgestattet, und so muss eine Software diese arbeit übernehmen

Hat Nvidia nicht angekündigt, daß alle 8000er Karten mit zukünftigen Teirbern PhysX unterstützen werden?
 
Deinorius schrieb:
Ich will kein Spiel, das ne perfekte Physik hat. Ich will ein Spiel, das mich in den Bann zieht und zwar story- & gameplaymäßig. Da hilft ne perfekte Physik kaum weiter.
Ganz im Gegenteil. Eine gutes physikbasiertes Game kann ein bisher noch nie dagewesendes Gameplay ermöglichen. Selbst wenn die Physik in dem Spiel nur zweitrangig ist, so macht es die Umgebung viel glaubwürdiger. Vorbei sind die Zeiten, in denen man mit Raketenwerfern auf unzerstörbare Mauern schießen konnte. Jetzt wo sich die Entwickler sicher sind, das ein Großteil ihrer Kundschaft Physik per GPU beschleunigen lassen kann, werden sie auch verstärkt die Physik in's Gameplay integrieren und das wird in Zukunft viel abwechslungsrreicher werden, als heute. Die Entwickler werden sich da schon was einfallen lassen.



y33H@ schrieb:
Würde wirklich fett auf Quads optimiert, wäre mir das deutlich lieber als die ohnehin schon überforderte GPU noch weiter zu stressen.
Naja. Nehmen wir mal an die Entwickler würden perfekt optimieren und den Quad-Core mit 20 % für die Physikberechnungen auslasten, dann kannst du dir anhand der Messung in diesem Artikel ja ausrechnen, wie stark die GPU stattdessen belastet würde. Eine 3800 ist im Vantage Test ca. 10 mall so schnell wie die CPU. Die GPU würde als nur zu 2% bei gleicher Physikberechnung zusätzlich belastet.

Wenn man jetzt noch bedenkt, dass die Anzahl der Streamprozessoren in den neuen GPUs erheblich gestiegen ist und ein offizieller Treibersupport wahrscheinlich noch effektiver arbeitet, als diese Bastellösung, dann kann man sich vorstellen, wie stark die CPU von der GPU entlastet wird.
Das was vorher die komplette CPU lahm gelegt hätte, benötigt nun nur ein paar % auf der Graka und gibt Resourcen für andere Dinge, wie Sound oder KI-Engione frei. Besonders für die KI würden die Entwickler gerne mehr Rechenleistung verwenden.
Außerdem sollte man beachten, dass eine komplxe Physik auch immer mehr Berechnungsaufwand für die CPU bedeutet, selbst wenn die tatsächlichen Kollisionsberechnungen und so auf der GPU durchgeführt werden.
Die ganzen zusätzlichen Objekte, die durch die Physikengine hinzu kommen belasten die CPU nicht unerheblich. Besonders bei DX9 Spielen.
Bei reinen DX10 Spielen sieht das etwas besser aus. Da greifen nun die Vorteile von DX10 und Hardware-Physik ineinander.

Eine GPU basierte Physik entlastet die CPU also indem sie die Physikberechnungen übernimmt, belastet sie aber wieder mehr mit dem hohen Verwaltungsaufwand den die ganzen Objekte erfordern. Es ist also nicht so, als ob die Quad-Cores auf einmal überflüssig würden.
 
jan4321 schrieb:
... Auch sind alle Karten bis auf GTX260 und GTX 280 und die neue GTX 9800+ nicht mit dem PhysX chip ausgestattet, und so muss eine Software diese arbeit übernehmen. ...

Auch diese Karten haben keinen PhysX Chip sondern berechnen die Physik mittels der Softwareschnittstelle CUDA.
Das heisst NVidia hat die PhysX API in CUDA umgesetzt und kann so die Physikberechnungen auf der Grafikkarte mittels den Unified Shadern berechnen lassen.

Andy
 
wenn ich mir die spieleunterstützung ansehe, scheint es im moment mehr oder weniger egal zu sein, ob physx überhaupt läuft.
außer unreal tournament 3 ist wohl kein echter blockbuster dabei. mal gucken, was noch kommt.
wobei mein AGP-system noch etwas luft hat, die 3850er ist leicht unterfordert...
 
ob sich Ati von Nvidia abhängig machen wird? sehr fraglich...

Ich schätze das Thema wird erst mit Direct 11 abgearbeitet sein.
 
Zurück
Oben