Nvidia bremst absichtlich PhysX auf der CPU aus

Status
Für weitere Antworten geschlossen.
AndrewPoison schrieb:
Hier noch mal ein schöner Heise-Artikel, den man sich mal unbedingt ganz durchlesen sollte:

http://www.heise.de/newsticker/meldung/Bremst-Nvidia-CPU-PhysX-Effekte-kuenstlich-aus-1036153.html

Da wird einem nämlich auch einiges klarer zum Thema.

Und das ist einer der Hauptgründe warum Nvidia von mir in naher Zukunft kein Geld bekommen würde, und auch nicht bekommen wird. Selbst wenn sie mit der GTX 460 jetzt seit langer langer Zeit mal wieder eine recht attraktive Karte auf den Markt gebracht haben.

Aber das muss ja jeder selbst Wissen, ob er mit der Unterstützung einer proprietären Technik, die Hardwaregebunden ist, sich selbst die Fesseln anlegt - zumindest mit dem (imho!) dämlichen Kauf einer zusätzlichen Karte für die PhysX Berechnung. Diese zusätzliche Investition und der damit eintreffende Mehrverbrauch ist total unnötig, und wäre absolut kein Thema in der heutigen Zeit wenn AMD oder irgend ein Dritter eine quelloffene oder zumindest nicht hardware gebundene Lösung forciert hätte. Nun müssen wir darauf noch einige Zeit Warten bis die OpenPhysics Initiative von AMD mit z.B. Bullet ins Rollen gerät, oder Intel/Havok sich mit der Khronos Group und/oder Microsoft zusammen setzen.

Und hier geht es auch absolut nicht um AMD = Wohltätigkeitsverein:
Die einzig Sinnvolle Umsetzung, und zwar für alle - vor allem uns Kunden - war, ist und bleibt nun mal ein Industriestandard der nicht den Großteil der aktuell verbreiteten Hard- oder Softwareinstallationen ausschließt. Die Lösung muss sowohl auf Nvidia, als auch auf ATI Grafikkarten funktionieren, ohne mit irgendwelche Tricks oder Nachlässigkeit gegenüber der Konkurrenz optimiert bzw. unausgereift zu sein. Das ist das mindeste.
Und das Optimum wäre, wenn diese Lösung zusätzlich den Hauptprozessor unterstützt, und so die beste Performance aus einer Balance zwischen GPU und CPU erreicht wird.
Denn so gut wie nie ist beides voll ausgereizt, womit je nach Spiel entweder die Berechnung auf CPU oder GPU einen Sinn ergibt, um auf nicht genutzte Leistung zugreifen zu können.

Und vor allem hier erkennt man deutlich, wer mit platten Sprüchen und fadenscheinigen Begründungen, Farbe bekennt. Wo es selbstverständlich jedem selbst überlassen bleibt, Hardware von dem einen oder anderen Hersteller zu kaufen, ist das ignorieren der Tatsachen und Argumente zu diesem Thema ein unbestreitbares Outing für nicht vorhandene Objektivität und parteiische Unterstützung.

Es ist völlig irrelevant ob es nun gerechtfertigt ist, GPU Physix Effekte auf CPUs mit der anscheinend schlechtesten aller Optionen ausführen zu lassen, und somit künstlich zu drosseln (weil die Möglichkeiten ja definitiv vorhanden sind), und das obwohl sie es hingegen bei Konsolen nicht so handhaben.
Man sieht ja ebenso an der fehlenden Unterstützung der alten Ageia Karten, dem deaktivieren von PhysX bei der Präsenz einer Konkurenzkarte oder dem Aufdrehen der Anforderung auf Anschlag, so das die meisten Spiele eine dedizierte Grafikkarte allein zu Physik Beschleunigung benötigen, und bei nicht wenigen reicht da keine kleine aus.

Es ist doch albern hier Nvidia von der Kritik frei zu sprechen, weil es nachvollziehbar ist, oder ihr gutes Recht, da sie selbst keine x86 kompatiblen CPUs im Portfolio haben, oder ihr eigenes Geld und die Manpower in PhysX gesteckt haben, wenn auf der anderen Seite eben mit diesem Geld und der Manpower IHRE Techniken in einige Spiele implementiert werden, etwas wo dann die große lobhudelei los gelassen wird.
Wenn dann aber die x86er Optimierung fehlt, nur auf Nvidia lauffähiges AA implementiert wird (das im übrigen ATI Funktionen 'manipuliert') oder die Spiele so performancehungrig sind, das man ZWEI high end Karten benötigt, dann sind die Spieleentwickler schuld?

An dieser Politik erkennt man klar ihre Ziele, und wer dies noch meint zu unterstützen, dem kann man nicht mehr helfen. Das geht alles zu lasten dem Kunden, uns.

Schaffe89 schrieb:
Es wird wirklich Zeit für Open Physics, schade dass es hierzu keine News auf CB gab.

Allerdings, denn ohne diese auf einigen Hardwareseiten fehlt auch die breite Bekanntheit und Akzeptanz.
 
Ich gebe dir vollkommen Recht.

Man kann diesem Trend allerdings nur mit geziehlter Boykotierung entgegen wirken. In dem Fall auch garkeine Spiele kaufen, die derartige features unterstützen.

Wäre der Fermi im übrigen nicht so ein Flopp, müsste man sich als ATI user in diesen Zeiten echt ne Menge gefallen lassen, aufgrund der Medienproganda mit features alá PhysX, wie sie von NVIDIA seit Jahren betrieben wird.
 
AndrewPoison schrieb:
Klar, NV könnte hinter anderen aufräumen und deren Codes besser machen, aber wozu wenn es nicht die eigene Position stärkt?

Unyu schrieb:
Nvidia hätte sofort viel mehr Manpower hineinstecken müssen, ungeachtet des eigenen Nutzens.
Sofort nachdem man Ageias Code übernommen hat, die natürlich nicht daran beteiligt sind wie ihr Werk aussieht.

Und weil sie es nicht müssen ist das Verhalten natürlich sofort OK. Kapitalismus-WOW!
Grade mit Hinblick auf Nvidias aggressive Marketingaussagen bezüglich Physx, wieviel schneller GPU-Physx ist, wieviel besser es das Spielerlebnis macht und wie ungeeignet CPUs für die Physik-Berechnung sind, sind diese Methoden äußerst fragwürdig. Wenn ich mich nicht ganz irre könnte es sich um unlauteren Wettbewerb handeln.

@conehead7: Als ob ein schlechteres Produkt Nvidia je davon abgehalten hätte die Werbetrommel zu rühren. So vielen Leuten wie möglich zu suggerieren, das eigene Produkt wäre aus irgendwelchen Gründen doch besser heißt die Devise.

PS: Wieso wird sowas eigentlich nie auf CB gemeldet? Im Restnetz scheints ein großes Ding zu sein.
 
Zuletzt bearbeitet:
conehead7 schrieb:
Man kann diesem Trend allerdings nur mit geziehlter Boykotierung entgegen wirken. In dem Fall auch garkeine Spiele kaufen, die derartige features unterstützen.

Ich bin schon damit beschäftigt alle Spiele zu Boykotieren, die irgend einen Internet-Account als Voraussetzung haben^^
Ne, PhysX-Spiele brauche ich nicht auch noch zu Boykotieren, nicht wenn sie mir gefallen. Zumal die Spielehersteller das Multithreading der PhysX beibringen können, dafür brauchen sie nur ein paar Flags umzustellen. Das mit X87 ist schon schwieriger...

---

Viel interessanter ist aber, wann den nun PhysX 3.0 endlich kommt, mit all den Features per default eingestellt und ab welchem Spiel das dann endlich eingesetzt wird.

@riddi
Wie ich sehe, hast du dich dort in den Kommentaren auch schon verewigt xD
http://www.hartware.de/news_49591.html
 
Zuletzt bearbeitet:
milamber! schrieb:
Und das ist einer der Hauptgründe warum Nvidia von mir in naher Zukunft kein Geld bekommen würde

Interessant. Aber AMD kaufen, die nichts machen - weder CPU noch GPU technisch. Irgendwie ironisch...

Aber das muss ja jeder selbst Wissen, ob er mit der Unterstützung einer proprietären Technik, die Hardwaregebunden ist, sich selbst die Fesseln anlegt - zumindest mit dem (imho!) dämlichen Kauf einer zusätzlichen Karte für die PhysX Berechnung. Diese zusätzliche Investition und der damit eintreffende Mehrverbrauch ist total unnötig, und wäre absolut kein Thema in der heutigen Zeit wenn AMD oder irgend ein Dritter eine quelloffene oder zumindest nicht hardware gebundene Lösung forciert hätte. Nun müssen wir darauf noch einige Zeit Warten bis die OpenPhysics Initiative von AMD mit z.B. Bullet ins Rollen gerät, oder Intel/Havok sich mit der Khronos Group und/oder Microsoft zusammen setzen.

Es ist jedem selbst überlassen, ob er sich zusätzliche Hardware alleine für PhysX kauft oder 2 Jahre wartet und nichts erhält.

Und hier geht es auch absolut nicht um AMD = Wohltätigkeitsverein:
Die einzig Sinnvolle Umsetzung, und zwar für alle - vor allem uns Kunden - war, ist und bleibt nun mal ein Industriestandard der nicht den Großteil der aktuell verbreiteten Hard- oder Softwareinstallationen ausschließt. Die Lösung muss sowohl auf Nvidia, als auch auf ATI Grafikkarten funktionieren, ohne mit irgendwelche Tricks oder Nachlässigkeit gegenüber der Konkurrenz optimiert bzw. unausgereift zu sein. Das ist das mindeste.
Und das Optimum wäre, wenn diese Lösung zusätzlich den Hauptprozessor unterstützt, und so die beste Performance aus einer Balance zwischen GPU und CPU erreicht wird.
Denn so gut wie nie ist beides voll ausgereizt, womit je nach Spiel entweder die Berechnung auf CPU oder GPU einen Sinn ergibt, um auf nicht genutzte Leistung zugreifen zu können.

Propritär ist der Türöffner. Das war so und wird auch immer so bleiben: Glide, EAX, Cuda...
Proprietär bringt Konkurrenz, bringt Standards. OpenCL und DC sind von C for Cuda inspiriert.

Und vor allem hier erkennt man deutlich, wer mit platten Sprüchen und fadenscheinigen Begründungen, Farbe bekennt. Wo es selbstverständlich jedem selbst überlassen bleibt, Hardware von dem einen oder anderen Hersteller zu kaufen, ist das ignorieren der Tatsachen und Argumente zu diesem Thema ein unbestreitbares Outing für nicht vorhandene Objektivität und parteiische Unterstützung.

Wie man sich immer selbst ein EI ins Nest legen kann. :evillol:

An dieser Politik erkennt man klar ihre Ziele, und wer dies noch meint zu unterstützen, dem kann man nicht mehr helfen. Das geht alles zu lasten dem Kunden, uns.

Ich frage ja, wieso sich die Wut der AMD Kunden immer gegen nVidia forciert? Da kündigt AMD vor zwei jahren ein Konkurrenzprodukt zu GPU-PhysX an und liefert nichts, aber es ist nVidia, die "zu lasten des Kunden" arbeiten. Vollkommen unabhängig, dass AMD dank ihrer CPUs eigentlich sehr einfach Physik in Spielen pushen könnten.
Da wird sich über eine AA Implementierung in einem Spiel beschwert und "das zu lasten des Kunden" gehen würde, jedoch AMD nach x-monatiger Zusammenarbeit kein Ingame-AA im Spiel haben wollte.
Dieses Verhalten offenbart eine starke Obrigkeit gegenüber AMD, die nie etwas falsch machen können. Jegliche Kritik wird auf nVidia gelenkt, um den Gesetzen des Sektenführer zu entsprechen.
Traurig, traurig.
 
Sontin schrieb:
Interessant. Aber AMD kaufen, die nichts machen - weder CPU noch GPU technisch. Irgendwie ironisch...

Du hast schlichtweg den Inhalt und die Aussage seines Posts nicht verstanden, oder bist dir nicht im Klaren was die Thematik beinhaltet.
Und propretiäre halbgare standards, welche einen anderen Hersteller und Kunden ausschließen sind nie gut und halten offene standards auf, ehe sie diese erzwingen.

AMD kann Physic kaum auf "ihrer" CPU pushen, da Havok nicht propretiär ist, so wie sichs gehört.
 
Es ist irgendwie inzwischen ein bewährtes Mittel von Schaffe89, jedes Argument damit abzutun, dass der Argumentierende angeblich etwas nicht verstanden hat. Sein Argument bzw. das Aufzeigen der Ironie ist durchaus berechtigt und zeugt alles andere als von Unverständnis. Wenn du das anders siehst, musst du schon erklären, was er angeblich nicht verstanden hat und wieso du diese Ironie nicht siehst.
 
Ja, ich denke er hat die Thematik nicht richtig erfasst und ist sich der Lage nicht im klaren.
Das ist übrigens kein bewährtes Mittel, wo wende ich denn dieses sonst an?
 
Überall. Du und andere AMD-Junger. Kaum hat man was gesagt, kommt gleich "du hast es einfach nicht verstanden, bla blub"

Hört endlich auf so zu tun, als hättet ihr die Weisheit mit den Löffeln gegessen und sag ihm direkt wo du da die aufgezeigte Ironie nicht siehst und warum nicht. Anstatt ihm indirekt Leseschwäche oder das Unvermögen eine Thematik zu erfassen vorzuwerfen und das ohne jegliche Begründung.
 
AndrewPoison schrieb:
Nun, NVidia ist kein Gemeinnütziger Verein, an erster Stelle steht der eigene Gewinn. Du arbeitest auch nicht für Lau für fremde Firmen. Im übrigen wurde schon der Ausschnitt zitiert, dass mit der neuen PhysX-API 3.0 Multithreading und SSE einzug halten werden. ...

Das hat gar nix mit gemeinnützig oder nicht zu tun. Die Unterstützung offener Standards ist im PC Bereich nun mal essentiell.

Oder willst Du wieder zu Zeiten zurück in denen jeder Rechner eine andere Plattform war? Ein Schneider PC war inkompatibel zu einem IBM PC, alleine Atari hat diverse verschiedene Plattformen veröffentlicht!

Proprietär = meist Schlecht.

Das aggressive Marketing und das abwerben von Entwicklern mit Hilfe von Zuschüssen seitens nVidia setzt dem Ganzen dann meist auch noch die Krone auf. Bestes Beispiel ist Batman. Kein AA (direkt) im Spiel, lächerliche Effekte speziell für PhysX die vor 10 Jahren schon Standard waren...
 
Es ging nicht um die Ironie, sondern dass ihm nicht bewusst ist, wie Nvidia hier arbeitet und welche Mittel sie verwenden und in diesem Falle hat Milamber! nunmal recht.
Und den Inhalt von Milambers Post hat er schlichtweg zerredet, da er seine Haltung nicht nachvollziehen kann und er ihn deswegen für einen Fanboy hält.

Und da du auch schon wieder mit AMD Jünger anfängst ist diese Diskussion eh beendet.
 
Zuletzt bearbeitet:
silent-efficiency schrieb:
Überall. Du und andere AMD-Junger. Kaum hat man was gesagt, kommt gleich "du hast es einfach nicht verstanden, bla blub"

Hört endlich auf so zu tun, als hättet ihr die Weisheit mit den Löffeln gegessen und sag ihm direkt wo du da die aufgezeigte Ironie nicht siehst und warum nicht. Anstatt ihm indirekt Leseschwäche oder das Unvermögen eine Thematik zu erfassen vorzuwerfen und das ohne jegliche Begründung.

Ich hab kein Problem damit mir eine 50-100€ Zusatzkarte in den Rechner zu stecken wenn nvidia meint den Cpu nicht zu supporten,
aber selbst die Zusatzkarte blockieren sie ja.
 
Sontin schrieb:
Propritär ist der Türöffner. Das war so und wird auch immer so bleiben: Glide, EAX, Cuda...
Proprietär bringt Konkurrenz, bringt Standards. OpenCL und DC sind von C for Cuda inspiriert.

Ich frage ja, wieso sich die Wut der AMD Kunden immer gegen nVidia forciert? Da kündigt AMD vor zwei jahren ein Konkurrenzprodukt zu GPU-PhysX an und liefert nichts, aber es ist nVidia, die "zu lasten des Kunden" arbeiten.

Proprietär ist toll? Seit wann denn das? Glide ist Tod, EAX spielt (leider, da eigentlich wirklich gut) nur noch eine "Ferner liefen" Rolle, CUDA wird demnächst auch eingestampft...

Und scheinbar hast Du das Konzept nicht wirklich verstanden. AMD/ATi wird nie irgendwas eigenes bringen. Wozu auch? Dafür ist ja OpenCL da, eine ordentliche Physik Engine ist ja nur eine Software-Schnittstelle zwischen Hardware und Software.

AMD/ATi bietet seinen Kunden und den Entwicklern die Freiheit zu benützen was sie wollen. Du willst als Entwickler keine teure Physikengine lizensieren, weil Du eh nur ein paar Sachen brauchst? Kein Problem, programmier selbst was und lass es via OpenCL Hardware-Unterstützt laufen!
Du willst Havok, SpeedTree oder sonstwas auf der Hardware laufen lassen? Mit OpenCL kein Problem!
Als Kunde hast Du auch keine Probleme. Mit offenen Schnittstellen/Standards bist Du immer auf der sicheren Seite, egal welche Hardware Du kaufst.

Ich fordere von nVidia die Anpassung von PhysX an OpenCL! Andernfalls hoffe ich, wird PhysX endlich in der Versenkung verschwinden. Proprietäre Pseudo-Standards braucht kein Mensch.

Das selbe übrigens bei 3D. Auf nVidia läuft nur, was mit dem 3D Vision kram zusammen zertifiziert ist. AMD/ATi bietet eine Schnittstelle für ALLE Anbieter. Da ist es völlig egal wie der Hersteller Deines Monitors oder Deines Fernsehers heißt. Bei nVidia darf man momentan noch ganz genau hin schauen, was unterstützt wird und was nicht.

Und der - aus meiner Sicht - schlimmste Punkt von allen: nVidia kauft sich die Unterstützung durch massiven Geldfluss an die Entwickler wenn sie "Ihr" Baby unterstützten. Nur deswegen machen die Entwickler das mit. Das ist aus meiner Sicht "Unfair Business" und wenn die EU schon Microsoft und Intel in der Mangel hat, sollten Sie ruhig direkt auch mal bei nVidia vorbei schauen...

Achja, zum Thema EAX nochmal: EAX läuft mittlerweile über OpenAL und ist somit auch (theoretisch) Plattformunabhängig. Zumindest bis Version 2.0 unterstützt das mittlerweile fast jede Soundkarte.
 
Zitat:
von Sontin
Und das ist einer der Hauptgründe warum Nvidia von mir in naher Zukunft kein Geld bekommen würde
Interessant.
Aber AMD kaufen, die nichts machen - weder CPU noch GPU technisch. Irgendwie ironisch...

Die einzige ironie dahinter steckt ist bei dir.
Wenn AMD7 ATI nicht machen würde CPU & GPU Technisch würden wir immer noch in den Alten 286 zeiten leben wo jede rechner locker mal 2000 Mark/ beziehungsweise € kosten würde.
Mal abgesehen davon wie schon Falcon schon erwähnt hat ist OpenCL eine wirklich bessere wahl für jeden Programierer du hast dadurch jede freiheit die du beim Programieren haben kannst, dies wird durch NV eingegrenzt = Nutze etwas von unz damit wieder was von unz Nutzen kannst.
Genauso wie diese 3D Brillen die gab es schon vor jahren von ELSA ( die leider Pleite ist ).
Die konnte man für 150 mark früher für jede Grafikkarte von Elsa dazu kaufen und nutzen.
OHNE DAFÜR EINEN 3D MONITOR zu kaufen.

ATI könnte auch diese 3D geschichte wieder beleben macht es aber nicht! Warum auch weil es auch andere Firmen da drausen gibt die sowas rausbringen können ( ELSA = 3D Shooter Brille ) weil ja OpenCL vorhanden ist.
 
@Kartenlehrling
Du brauchst mich nicht zu zitieren, wenn du nichts zu meinem Zitat schreiben willst, oder in irgend einer Form darauf eingehen willst.

Schaffe89 schrieb:
Es ging nicht um die Ironie
Es ging aber im Zitat um die Ironie. Wenn es dir nicht darum ging, hättest du es gar nicht zitieren dürfen und irgendwelches unpassendes und zudem unbegründetes Zeug drunter schreiben dürfen, das du auf zweimaliges Nachfragen nicht vernünftig und präzise artikulieren kannst, sondern wieder nur allgemeines Zeug von dir daher gibst.

Schaffe89 schrieb:
Und den Inhalt von Milambers Post hat er schlichtweg zerredet,....
Er "zerredet" den Post von Millamber, weil Millamber schlicht inkonsistent argumentiert. Und die Ironie zeigt diese Inkonsistenz sehr deutlich.


Schaffe89 schrieb:
...., da er seine Haltung nicht nachvollziehen kann
Und hör auf ständig zu sagen, dass Sotin etwas "nicht nachvollziehen" kann oder "etwas nicht versteht". Das Thema hatten wir doch schon zwei Beiträge drüber. Ich habe dir doch schon da erklärt, dass du das nicht einfach so hinschreiben darfst, wenn du es nicht mal Ansatzweise begründen willst.
Andernfalls mach ich auch mal eine Behauptung in deinem Stille:
Du bist hier der jenige, der Sotins Stellungnahme zum Post von Millamber nicht begreifen will, weil es contra Millamber ist, der pro AMD und Contra nvidia gesprochen hat und damit hat Sotin contra denjenigen gesprochen, der auf deiner Seite steht. Du führst also schlicht und ergreifend einen Grabenkampf, statt zu diskutieren.
 
Zuletzt bearbeitet:
Sontins Heiligsprechung von proprietären Standards schreit ja auch tatsächlich danach, daß man dagegenredet - es ist nämlich schwachsinnig. Gerade im PC-Bereich haben sich proprietäre "Standards" seltenst durchsetzen können, wie an den Beispielen Glide und EAX schön gezeigt. Ebenso wird PhysX zwangsweise irgendwann zugunsten offener Physikstandards, die auf OpenCL fußen zugrundegehen. Da führt nahezu kein Weg dran vorbei.

Und Milambers Argumentation zu unterstellen, sie sei plump pro AMD und contra nVidia ist ganz schön kurzsichtig.


Edit: PhysX ist letztendlich keine Spur kundenfreundlich sondern schlicht und einfach ein Werkzeug, um die Marke "GeForce" von der Marke "Radeon" deutlich abzugrenzen und einen technologischen Vorteil widerzuspiegeln, der keiner ist. Wer PhysX will, MUSS eine GeForce kaufen. Und sowas hat nichts, aber auch gar nichts mit Kundenfreundlichkeit zu tun. Frage mich, wann das mal der letzte begriffen haben wird.
 
Zuletzt bearbeitet:
Natürlich ist Milambers Argumentation schlicht und plump pro AMD. Hätte er sich neutral gehalten und nicht erzählt, dass er AMD Geld in den Rachen stecken wolle, obwohl sie immer noch keine offene Physik so richtig pushen konnten, wie angekündigt, sondern sich einfach mit der Thematik hier ganz normal auseinander gesetzt, hätte keiner was gesagt. Dafür will er aber nvidia bestrafen, weil sie was proprieteres gemacht haben. Es zwingt dich ja keiner im Spiel PhysX zu benutzen. Machst du PhysX aus, hast du bei Nvidia genau das gleiche Packet wie bei AMD. Nämlich kein offenes Physik und kein Gar nichts, nur schlichtes Bildern rendern und das mit möglichst vielen fps.
 
Zuletzt bearbeitet:
Verlier dabei aber nicht aus den Augen, daß offene Physikstandards wie Bullet auf OpenCL fußen und somit erst mit Win7 und DirectX 11 wirklich "offen" machbar sind. Wenn, dann werden wir in etwa einem halben Jahr erste wirkliche Resultate sehen.

Bis dahin wird die CPU weiterhin brav ihren Dienst bei der Physikberechnung tun, wie sie es z.B. bei Bad Company 2 problemlos macht.
 
Status
Für weitere Antworten geschlossen.
Sapphire Forum
Zurück
Oben