News Nvidia PhysX-Treiber für alle GPUs am 5. August?

Das selbe wie DX10.1 viel gerede, viel Werbung, viel Forumgequatsche, und nichts dahinter !
DX10.1 unterstütz gerade mal 1 Spiel (und das wurde wieder ausgepatcht)
Physik X unterstütz auch gerade mal 1 Spiel.
Bis die Spiele kommen die das unterstützen wird noch viel Blut (in COD4) vergossen.....
 
Interessant wird die Entwicklung im Zusammenhang mit Hybrid-SLI. Das kann man dann nämlich sicherlich so einstellen, das sich

die CPU um das Spiel selbst, bzw. die KI kümmert,
die GPU um die Grafik des Spiels kümmert
der Chipsatz die Physikbeschleunigung kümmert.

Denn selbst mit 40 Shader-Prozessoren dürfte der Chipsatz in der Lage sein, die Physik um den Faktor 3-4 gegenüber einer QUAD-CPU zu beschleunigen und die CPU & GPU würden in diesem Fall beide komplett für "ihren" angedachten Aufgabenbereich freibleiben.
 
@spawngold ok, das wusste ich nicht, lt. der CB News kann das nur UT, aber DX10.1 unterstütz ja wirklich nur 1 Game oder?
 
äh wenn meine gpu dann die physik berechnet, wer berechnet dann die grafik?

bzw.: wie hoch ist der fps einbruch? oder wird da irgendwas genutzt, was normal nichtstuend vor sich hindümpelt?
 
@mm91
kann ich dann mit einer grafikkarte der geforce 8 serie cell factor spielen (die speziellen maps für die physx-karten) ohne eine physx-karte zu besitzen?

Ja kannst du.


Ich hoffe das der termin stimmt.Kann es kaum abwarten selber mit der Physik rum zu spielen.
Endlich Warmonger und Cell Factor flüssig spielen...juhu:)

@realredfox
äh wenn meine gpu dann die physik berechnet, wer berechnet dann die grafik?

bzw.: wie hoch ist der fps einbruch? oder wird da irgendwas genutzt, was normal nichtstuend vor sich hindümpelt?
Die ungenutzte leistung wird genutzt um die Physik zu berechnen.
 
Zuletzt bearbeitet von einem Moderator:
spawngold schrieb:
Warum wird immer und immer wieder so ein Mist erzählt? Es gibt ohne Ende Spiele die unterstützt werden.

EDIT: http://de.nzone.com/object/nzone_physxgames_home_de.html

SPAWNI

Aber auch gelesen?

NVIDIA schrieb:
Im Folgenden ist eine Auswahl aktueller und kommender Titel mit AGEIA PhysX-Beschleunigung für PC und Spielekonsolen aufgeführt. Bei PC-Spielen sorgt der PhysX-Beschleuniger für ein noch ansprechenderes Spieleerlebnis.

Das heißt das diese Spiele mit der extra Karte laufen.
Für die NVIDIA Karten müssen die Spiele erst noch angepasst werden, sonst geht gar nichts.
 
Jo und das war Assassinscreed;)
 
Dr.Fisch schrieb:
@spawngold ok, das wusste ich nicht, lt. der CB News kann das nur UT, aber DX10.1 unterstütz ja wirklich nur 1 Game oder?


Dat war auch kein Angriff auf deinereiner ;) Wieviele Games DX 10.1 unterstützen, weiss ich nicht. Ich besitze nur eine popelige DX10 Karte :lol:
 
hoffentlich kommt am 5.ten dann ein cb artikel in dem alle physx spiele getestet werden^^

und hoffentlich bekommt ati bald auch physx^^
 
hmm, dennoch halte ich es für den falschen schritt die physik auf der GPU berechnen zu lassen.

bei den modernen spielen ist die graka fast immer der limitierende faktor, und der jetzt noch mehr arbeit zuzuschustern kommt mir nicht sehr sinnvoll vor.

Und da die Prozessoren immer mehr Kerne bekommen (im moment 4, bald 8 oder 16) scheint es doch vernünftiger zu sein, einfach die "überschüssigen" kerne für solche aufgaben zu benutzen.
schliesslich dümpeln beim 4 kerner meistens 2 kerne mit nichtstun rum. (bei spielen)
 
Du hast noch nie versucht die UT3 Karten, die extra für PhysX gebastelt wurden zu spielen, oder?
Wenn PhysX auf der GPU läuft, geht die FPS-Anzeige (sehr) deutlich in die Höhe!
BTW: PhysX ist bereits auf Dual-/Quadcore optimiert! (zumindest war es das vor dem Kauf von Nvidia...)

Ich freu mich schon drauf, wenn NGOHQ die PhysX Treiber auch auf ATI-Karten laufen hat :)
 
@ JJJT

Die "freie Leistung" der CPU-Kerne ist sehr viel geringer, als ein bisschen lkaumzu bemerkendes von der GPU für Physik abzuzwacken. Ein dedizierter Physikchip wäre möglicherweise sinnvoller, aber der steht nicht mehr zur Debatte. Die CPU hat eine dermaßen schlechte Leistungsbilanz, dass sie hierbei wirklich kein bisschen der Rede wert sein dürfte. Multithreading könnte man eigentlich schon gut umsetzen, wenn jede KI (also in einem Shooter bspw. jeder künstliche Gegenspieler einzeln) in einem eigenen Thread läuft. (das geht sogar schon ohne den anstehenden Paradigmenwechsel für die Manycore-Programmierung)
 
Zuletzt bearbeitet:
@JJJT
Die Prozessoren haben mehr Kerne?
Ich sehe nur wie hier Dualcores empfohlen werden, die sind schon ohne Physik voll ausgelastet.

Vergleichen wir doch mal:
8800 GT - 89€
Nehalem Extreme Edition - 1200€

Huch, der teure Nehalem, noch nicht mal kaufbar ist immer noch lahmer.
Jetzt überlegen wir mal wielange es dauert, bis jeder diese CPU hat und wie bis dahin die Welt mit 8800 GTs bestückt ist und schon längst Spass mit PhysX haben kann.
 
Enconter91 schrieb:
@realredfox

Die ungenutzte leistung wird genutzt um die Physik zu berechnen.


wo hätte meine 8800 gt denn ungenutzte leistungsreserven, wenn ich schon n aktuelles spiel auf höchster detailstufe spiele? oder ist da irgendwo nochn shader oder coprozessor drin der momentan ungenutzt oder kaum ausgelastet ist, welcher das dann übernehmen würde?
 
Zuletzt bearbeitet:
P.S.

Jede aktuelle GPU ist jedem aktuellen Athlon, Opteron, Intel-Core oder Xeon mehr als hasuhoch überlegen, wenn es um Performance per Watt geht, auch wenn Verbrauchswerte von 200 W pro Karte plakativ anders scheinen. Und eine Ursache hat Tomshardware in einem Schemavergleich deutlich gemacht - die Flächenanteile für Cache und Control
 
könnt ihr mal aufhören cpus mit gpus zu vergleichen?

das ist wie wenn man behauptet n raketenbetriebenes fahrzeug in der ebenen salzwüste auf einer hochgeschwindigkeitsstrecke ist besser als ein normales auto im stadtverkehr, weil man damit schneller zum einkaufen fahren könnte.
 
Der Artikel erklärt, warum in vielen Fällen eben doch die sogenannte GPU auch für General Purpose mehr Leistung bietet - eben weil die X86-CPU außerordentlich Platz für Cache und Control verschenkt. Und ghenau das ist auch der grund, warum uns Intel vor ein oder zwei Jahren verkündete, eine 100-Kern-CPU zu entwickeln. (siehe auch Fazit im Tom's Hardware Artikel - CPU und GPU entwickeln sich aufeinander zu, werden also immer ähnlicher werden)
 
@spawngold

Und eine Hand voll Spiele sind gut ;)

@topic

Ich versteh auch nicht ganz was daran gut sein soll. Die Graka wird ja nicht schneller sondern eher langsamer. Da sie ja noch zusätzlich PhysX darstellen muss. Wieso überträgt man das nicth auf den Prozessor? Ich mein fast jeder hat 3GHZ und für was? Das wäre mal was und nicht sowas
 
Ihr dürft nicht so beschränkt denken. Stellt euch einfach mal vor, ihr würdet eine zweite Karte im System haben :rolleyes:

Meiner Ansicht nach macht der Ansatz sehr viel Sinn Fließkommaberechnungen bzw. rechenintensive Aufgaben auf die GPGPU zu verlegen. Wenn es dann auch noch eine dynamische Verteilung der durch die GPGPU zur Verfügung gestellten Ressourcen gibt, dann wäre das doch eine super Lösung. Eine CPU ist dann eher für die Verwaltung oder für Berechnungen mit Sprungvorhersagen etc. geeignet.
 
Zuletzt bearbeitet:
Zurück
Oben