Nvidia bremst absichtlich PhysX auf der CPU aus

Status
Für weitere Antworten geschlossen.
Luxon schrieb:
Lächerlich. nVidia liefert nach wie vor die besseren Treiber

Da steht wohl Aussage gegen Aussage, am besten man lässt das Thema.
Schade, dass Nvidia nichtmal bei ihren eigenen Physx Karten den neuen Befehlssatz integriert.
Aber so können sie natürlich mehr Geld verdienen, da eine stärkere Karte dazu benötigt wird.
Warum sie den neuen Befehlssatz nicht implementieren liegt einerseits an der dann sehr stark ansteigenden CPU Leistung, was gpupyhsx dann komplett verdrängen würde.
Lieber bremsen sie mit den alten Befehlssätzen, welche eigentlich schins eit 2003 nicht mehr genutzt werden, die ganze Weiterentwicklung in Sachen performance/Physik
Es wird wirklich Zeit für Open Physics, schade dass es hierzu keine News auf CB gab.
 
das nennt man "einen Bedarf erzeugen"

letztlich ist es egal was Tatsache ist, solang der Kunde glaubt, dass ein Produkt unter seinen Möglichkeiten bleibt. Im Marketing der Supergau überhaupt.
Das PhysX Thema erinnert an die Intel & Mediamarktgeschichte. Wird Zeit, dass sich die Spielentwickler dagegen wehren. Ob die Treiber besser sind oder nicht? Wenn überhaupt, dann sind die Nvidiatreiber nicht viel besser, dafür unterliegt die aktuelle Generation in fast allen Bereichen.
 
Schaffe89 schrieb:
Schade, dass Nvidia nichtmal bei ihren eigenen Physx Karten den neuen Befehlssatz integriert.
Aber so können sie natürlich mehr Geld verdienen, da eine stärkere Karte dazu benötigt wird.

Das sind zwei Paar Schuhe - für GPU-Physx sind SSE-Befehle ja gar nicht von Nöten bzw. vorhanden, deswegen kann man sie da auch nicht implementieren (ist ja keine X86-CPU). Den Code für ihre Architektur werden sie schon entsprechend angepasst haben, so dass man eben keine "stärkeren Karten" benötigt. Man kann ja selbst ne 8600GT als PhysX-Karte laufen lassen: und es reicht für jedes reale Szenario aus.
 
AndrewPoison schrieb:
Das sind zwei Paar Schuhe - für GPU-Physx sind SSE-Befehle ja gar nicht von Nöten bzw. vorhanden, deswegen kann man sie da auch nicht implementieren (ist ja keine X86-CPU). Den Code für ihre Architektur werden sie schon entsprechend angepasst haben, so dass man eben keine "stärkeren Karten" benötigt. Man kann ja selbst ne 8600GT als PhysX-Karte laufen lassen: und es reicht für jedes reale Szenario aus.

Naja für Mafia2 APEX High settings wird eine gtx480 plus eine gtx470 bzw. gtx460 als PhysX-Karte empfohlen.
Bei Batman.Arkham.Asylum war es glaub ich nur von einer Grafikkarte die Rede, ich meine sogar es war für die maximal PhysX eine gtx260 angegeben.

Man könnte schon meinen das ist eine Verkaufsstrategie, .... mhh was mach ich den mit meiner "alten" gtx285.... ahh ich brauch die für die neuen Programe und Spiele als PhysX-karte, das es Menschen gibt die froh wären überhaupt eine gtx285 als Hauptkarte zu haben ist mal dahingestellt.
 
Batman läuft mit einer 9500GT vernünftig mit 25 Min-FPS im Benchmark wenn die Hauptkarte eine ATI ist in 2560x1600
 
Laufen tuts aber auch auf geringeren Karten (gerade Batman, was man mit Patch gut sehen kann) ;) Und Mafia 2 haut in Sachen PhysX ja auch ordentlich rein, ist damit aber auch das erste Spiel das überhaupt solch hohe Anforderungen an PhysX-Hardware stellt. Die bislang ~120 Spiele mit PhysX-Unterstützung schaffen es meist auf schwächeren Karten, die parallel dazu noch die Grafikbeschleunigung übernehmen müssen. Allerdings sind diese Titel meist auch nicht gerade optisch anspruchsvoll ;)
 
Öhm.. von den 120 von Dir genannten Spiele haben gerade mal 20 Hardware-Unterstützung. In etwa.

www.physxinfo.com
 
Was ist das denn? PhysX wird eingebaut, aber dann der CPU überlassen? Ist ja echt erschreckend. Kann ich mir nur so erklären, dass die Anforderungen in dem Fall so gering sind, dass eben auch die CPU ausreicht.

Aber gut zu wissen, die Website listet ja immerhin über 260 PhysX-Titel. Und auch gut zu wissen, dass nur 10% davon Hardwarebeschleunigung besitzen. Zeigt auch mal ne andere Perspektive!
 
Genau das isses, die meisten Effekte kann die CPU auch locker alleine berechnen.
Erst bei hohen Partikelzahlen zb. bei Flüssigkeiten oder Nebel wird die GPU interessant.
 
Ich hoffe immer noch das bald jemand eine freie Engine bringt und NV damit verdienter Weise den Bach runter geht.

Es sieht nett aus, aber solange immer wieder Leute in die Röhre gucken müssen,
weil die lieben Hersteller den Hals net voll kriegen, kann ich das nicht gut heißen.

Schade das die Havok in der Richtung nicht weiter gepusht wurde.
 
http://www.heise.de/newsticker/meldung/Bremst-Nvidia-CPU-PhysX-Effekte-kuenstlich-aus-1036153.html

Also, nachweislich wird alter Code verwendet um nur eine CPU anszusprechen.

"Außerdem nutzt Nvidia lediglich veraltete x87-Befehle für Gleitkommaberechnungen, von denen Intel und AMD schon seit Anfang 2000 abraten. Effiziente SSE-Befehle, die ohne größeren Programmieraufwand eingebunden werden könnten und die Performance auf aktuellen CPUs deutlich steigern würden, nutzt Nvidia bei PhysX nicht. "

Ich weiss nicht was jetzt förderlicher für das eigene Haus ist. Aufzufliegen wie man absichtlich Kunden verarscht oder denkt dadurch neue Kunden zu gewinnen.

Frechheit!

edit: und noch ein link http://hartware.de/news_49584.html
 
Zuletzt bearbeitet:
Den Heise-Link hatte ich bereits gepostet, aber hast du dir den auch mal bis zum Ende durchgelesen? Die haben schließlich den Ageia-Quellcode übernommen, und schon da war das so. Warum sollten sie jetzt für Fremdprodukte Arbeiten? Solange NV keine CPUs herstellt kann denen das doch völlig egal sein.

Klar, NV könnte hinter anderen aufräumen und deren Codes besser machen, aber wozu wenn es nicht die eigene Position stärkt?

/edit: @Unyu unter mir: genau ;)
 
Zuletzt bearbeitet:
Immerhin sollen Entwickler ab dem PhysX-API 3.0 Multi-Threading mithilfe von neuen Funktionen einfach und automatisch implementieren können – auch SSE-Unterstützung soll dabei sein.
Frechheit den Entwicklern dies anzubieten!

Nvidia hätte sofort viel mehr Manpower hineinstecken müssen, ungeachtet des eigenen Nutzens.
Sofort nachdem man Ageias Code übernommen hat, die natürlich nicht daran beteiligt sind wie ihr Werk aussieht.
 
frage muss ich jetzt in meiner nvida systemsteuerung physX konfiguration auf die cpu festlegen oder auf die gpu?
edit: soll ich physk deinstallieren , bekomm ich dann mehr fps?
 
Auf die GPU natürlich. Und nicht deinstallieren - dann bekommst du nämlich 0 FPS, da die Spiele, die PhysX brauchen, ohne PhysX nicht starten ;)

...oder war dein Post gar nicht ernst gemeint? Die Frage... scheint mir so... naja irgendwie seltsam ^^
 
ne war wirklich ernst gemeint, kenne mich leider nicht sehr gut aus. Wenn ich es auf "automatisch auswählen" belasse sucht der treiber automatisch das beste raus oder? Next question: was ist das 3d steostropic oder wie das heist?
 
Du kannst es auch auf automatisch lassen, die CPU wird sowieso nur dann gewählt wenn die GPU nicht kann (und das ist, sofern man eine Geforce 8 oder neuer besitzt, eigentlich nie der Fall).

Stereoscopic ist die 3D-Darstellung von Spielen etc., damit du diese mit geeignetem Monitor und 3D-Brille eben in 3D sehen kannst. Aber da das hier jetzt ein wenig weit Offtopic geht, würde ich für weitere Fragen eher auf die Wiki, Google oder sogar die Hilfe-Texte der NVidia Systemsteuerung verweisen, die erklären das eigentlich immer ganz gut ;)
Man kann es kurz sagen: wenn du nicht weißt was es ist, brauchst du es auch nicht ^^
 
AndrewPoison schrieb:
Warum sollten sie jetzt für Fremdprodukte Arbeiten? Solange NV keine CPUs herstellt kann denen das doch völlig egal sein.

Es SOLLTE ihnen aber nicht egal sein. DASS es nVidia egal ist, beweisen sie ja tagtäglich aufs Neue. PhysX, 3D, TWIMTBP etc....

Proprietäre Standards sind (meist) absoluter Mist. Vor allem wenn es um die Hardware-Basis geht. Das musste ATi schon früher lernen, nVidia hat das noch nicht. Momentan können sie mit aggressivem Product Placement und Marketing noch dagegen halten. Aber irgendwann fliegen sie (hoffentlich) damit auch auf die Fresse.
 
Nun, NVidia ist kein Gemeinnütziger Verein, an erster Stelle steht der eigene Gewinn. Du arbeitest auch nicht für Lau für fremde Firmen. Im übrigen wurde schon der Ausschnitt zitiert, dass mit der neuen PhysX-API 3.0 Multithreading und SSE einzug halten werden. Also alles nur heiße Luft, über die du dich aufregst.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben