Test Mafia 2 im Benchmark: Das Actionspiel sieht gut aus und läuft schnell

y33H@ schrieb:
@ Wattebaellchen

Öhm, NV supportet OpenCL gar "besser" als AMD.

Ganz sicher nicht, denn die ATI treiber waren schon längst in trockenen Tüchern, da hatte Nvidia noch keine Zertifizierung für selbige.

Nvidia drängt immer noch dazu CUDA zu nutzen...

Selbst Intel will nun OpenCL unterstützten

y33H@ schrieb:
Und OpenCL ist keine Physik-Bibliothek, sondern eine Schnittstelle.

Das weiß ich auch, hättest du dich mal früher eingeklinkt wäre dir das auch aufgefallen.
Allein schon wegen der Vielzeitigkeit von OpenCL ist es unumgänglich das sich Spieleentwickler damit befassen. Berechnungen die bei kleinen Prozessoren ins stocken geraten würden, könnten auch auf die GPU verteilt werden, z.B. bei Strategietiteln.
Bei Shooter steht es eben einer Physikengine zur Verfügung.

y33H@ schrieb:
Zum Thema Havok: Wo gibt es dynamische Partikel in Havok-Titeln? Richtig, nirgends. Alles Script-Events, wie "Destruction 2.0" in BC2. Das ist aber keine Physik, das ist eine Animation mit festgelegten Stufen. Havok gehört btw Intel und wenn Intel das pushen wollte, würde sie niemand daran hindern. Aber sie machen es nicht - NV dagegen schon, Marktlücke.
Wie kommst du auf diese Idee?

Wo pusht Nvidia denn? Die machen Werbung, eine Weiterentwicklung findet nicht statt und die ach so tollen Nvidiatreiber versagen ja kläglich.
Jemand der sich eine fast 500 Euro teute GTX480 holt um dann mit Physx auf Mittel oder Hoch eine Diashow zu betrachten ist sicher kein Kunde der die super Treiber loben wird.

Physx wird darüber hinaus hier nur zum aufblasen der Grafik benutzt. Die Effekte werden nicht wirklich besser, sondern nur mehr.

Andere Titel haben mit Havok Physik eingebaut die in das Spielgeschehen eingreift.

Das Havok Intel gehört weiß ich auch, bei der Shoppingtour ging ATI leer aus, die Kreigskasse war ja im roten Bereich.

Da Havok so oft lizenziert wird, bringt es auch so genug Geld.

Deshalb sagte ich ja, würde sich OpenCL als offener Standart für eine GPU Schnittstelle durchsetzen, gäbe es Möglichkeiten für mehr Wettbewerb, was zu einem besseren Ergebnis führt.


Die ATI 3D implentierung wird auch bei Verfügbarkeit der Brillen durch die Unterhaltungselektronikindustrie eine größere Auswahl liefern... --> Vorteil für den Kunden

Diese Super Innovationen die Nvidia da verkauft sind doch eh zugekauft... das ist keine Kunst, man hascht damit dem Kunden die Möglichkeit weg von einer neutralen Firma technik zuzukaufen.

Offene Standarts sind für die Kunden genau wie Opensource ein segen, wer dann immernoch lobpreist das Nvidia Physx hat, gehört von Nvidia auch ausgeraubt und übern Tisch gezogen (von jeder anderen Firma die ähnlich vorgeht natürlich auch!).

Dass Mafia noch DX9 ist, liegt vielleicht auch an der Aussage von Nvidia das man eh nicht mehr braucht..... :rolleyes:
 
Chiller24 schrieb:
Nvidia steht niemandem im Wege was anderes auf die Beine zu stellen um z.B. einen offenen Standard zu haben!
Eben. Die Schnittstellen, sei es Open CL oder DirectCompute, stehen zur Verfügung und jeder kann sich seine eigene Engine schreiben oder eine Engine verwenden, die diese Schnittstellen verwendet.
Die Bullet-Engine zum Beispiel verwendet DirectCompute und wird von AMD unterstützt. Trotzdem wird sie von Entwicklern nicht verwendet. Irgendwas scheint an der PhysX-Engine also verlockender zu sein.

Das sind sicherlich die nVidia Mitarbeiter, die einem zur Verfügung gestellt werden und Features implementieren, aber da werden sicherlich noch andere Vorteile vorliegen. Zum Beispiel, eine einfachere API, eine gute Dokumentation, eine kostengünstigere (kostenlose?) Lizensierung oder was weiß ich.

Irgendwas muss PhysX ja haben, was die Konkurrenz nicht hat, sonst würden die Entwickler das nicht einsetzen. Es gibt schließlich andere Engines, die GPU-Beschleunigte Physik mittels Open CL oder DirectCompute beherschen.

Wenn sich Open CL oder DirectCompute nicht durchsetzt liegt das weniger an nVidia sondern eher an fehlender Konkurrenz. Die Entwickler würden die sicherlich einsetzen, wenn die attraktiver wäre als PhysX.
 
Zuletzt bearbeitet:
Man kann sich auch alles schönreden, im Grunde sind das Wettbewerbverzerrende Maßnahmen... sowas ist verboten, aber bis sich die Behörden in den USA mal bewegen muss der schaden schon gigangtisch sein und dann gibt nur ein "du du du"

Man kann ja nicht erwarten das Opensourceentwickler sich bei einem Spieleentwickler hinsetzen und die Physikengine einbauen, darüber hinaus noch teure Grafikkarten und ein paar Taler für die Kaffeekasse mitbringen.
 
wieso probiert du es nicht aus ? 15min download
 
noxon schrieb:
Du weißt schon, dass Teile des Windows 7 Kernels in C# geschrieben wurden, oder? Und dabei handelt es sich sogar um eine ganz wichtige Sache, die die Multicoreunterstützung von Windows verbessert. Der Dispatcherlock im Windows Scheduler hätte ohne die Ersetzung durch den in C# geschriebenen Spinlocks das System bei 64 Cores schon um 15% verlangsamt. Das Problem wurde jetzt in Win7 behoben, sodass diese unnötigen Geschwindigkeitseinbußen nicht mehr auftreten. Alles realisiert mit .NET.

Das ist ja alles schön und gut. Eins muss jedoch immer klar sein. Egal wie schnell managed Code läuft: Eine gleichwertige Binärlösung wird immer schneller laufen. Microsoft hat sich bewusst für .NET Lösung entschieden um produktiver zu werden und die Geschwindigkeitseinbußen hingenommen. Gleichzeitig kann man auf das weniger qualifizierte Personal zurückgreifen womit man wieder produktiver wird. Hinzu kommt der Sicherheitsaspekt, da C# viele für Windows unangenehme Dinge nicht kann, die in C/C++ mit wenig Code realisierbar sind.

noxon schrieb:
Das nur mal so nebenbei um den Mythos entgegenzuwirken, dass alles was in .NET geschrieben wird langsam ist.

Es ist kein Mythos. Jedes bisschen Code bringt entsprechenden Aufwand mit sich. Unterschiede sind selbst zwischen C und C++ feststellbar. Ich kann das mittlerweile sehr gut beurteilen. Je nach vorgegebener Projektzeit und Bezahlung gilt
(vor allem für Berechnungsalgorithmen):
ASM>FORTRAN>C>C++>Managed Code

noxon schrieb:
Es spricht auch nichts dagegen Spiele in .NET zu schreiben.

Das einzige was dafür spricht sind die bereits o.g. Gründe, praktisch die selben wie für Java. Mit der Zeit summiert sich aber der Zeitverlust. Je umfangreicher die Anwendungen sind, desto größer wird die Leistungskluft.
Hinzu kommst dass die meisten Programmierer noch nicht einmal die Pitfalls ihrer Programmiersprachen und insbesondere der Compiler kennen, so das immer wieder Statistiken herauskommen dass Java/C# bspw. schneller sein soll als C/C++. (Dabei ist die JVM selbst in C++ geschrieben). Dieser Unsinn zieht sich sogar bis hin in die Bildungseinrichtungen, die es sicherlich besser wissen sollten.

noxon schrieb:
XBLA Spiele machen es ja vor und auf dem Windows Phone 7 hast du auch keine andere Möglichkeit.
Diese Einschränkung wird mMn WiMo noch den Hals brechen. Außerdem wird es sicherlich auch dafür einen Jailbreak geben. Im Prinzip ist es auch nichts anderes als ein OS für ARM Prozessoren..
 
darkfate schrieb:
Egal wie schnell managed Code läuft: Eine gleichwertige Binärlösung wird immer schneller laufen. Microsoft hat sich bewusst für .NET Lösung entschieden um produktiver zu werden und die Geschwindigkeitseinbußen hingenommen.
Die Diskussion gibt's schon seit es Computer gibt. Das erste Mal wurde gemeckert, als man auf Assemblercode wechseln wollte, anstatt direkten Maschinencode zu schreiben. Dann wurde gemeckert, als alles in C geschrieben werden sollte anstatt weiterhin alles in Assembler Code zu programmieren. Als dann C++ an der Reihe war C abzulösen wurde wieder rumgejammert und jetzt kommen die gemanageten Sprachen wie C# und das Spiel beginnt erneut.

Immer wenn wir die Abstraktionseben erhöhen nehemen wir einen Performanceverlust in kauf, erzielen dadurch aber einen Produktivitätsgewinn. Schleißlich können wir nicht 5 Jahre an einem Spiel entwickeln, sondern müssen es in 2-3 Jahren schaffen. Wir können nicht immer noch alles in Maschineninstructions programmieren um die beste Performance herauszuholen.



Aber bleiben wir beim Thema:

Ich habe noch einmal mein Video auf YouTube hochgeladen in dem ich mal ein wenig die PhysX Engine in Mafia 2 ausgereizt habe. Ich würde gerne mal sehen, wo das die Crysis oder Havok-Engine besser kann, wie das hier schon ein paar mal behauptet wurde.
Mafia 2 PhysX Tests
 
Chiller24 schrieb:
Es ist einfach eben immer das gleiche!
Jemand der sich für eine ATI-Grafikkarte entscheided, was ja keine schlechte Entscheidung ist, weiss was er bekommt und was nicht! Aber grade diese sind dann diejenigen, die dann jedes mal rumjammern!

Immer das gleiche, sinvolle und berechtigte Kritik wird mit Polemik und diskussionsfernem Gelaber abgewehrt.

y33H@ schrieb:
Zum Thema Havok: Wo gibt es dynamische Partikel in Havok-Titeln? Richtig, nirgends. Alles Script-Events, wie "Destruction 2.0" in BC2. Das ist aber keine Physik, das ist eine Animation mit festgelegten Stufen. Havok gehört btw Intel und wenn Intel das pushen wollte, würde sie niemand daran hindern. Aber sie machen es nicht - NV dagegen schon, Marktlücke.
Wie kommst du auf diese Idee?

Interessant wie du ständig versuchst, ohne sinvoll dem Thema beizutragen, Nvidias Machenschaften in ein besseres Licht zu rücken, indem du anderes abwertest, aber das eigentliche Thema geschickt umgehst.
Immer das gleiche unsinnige und unehrliche Diskussionsverhalten.

Wattebällchen schrieb:
Physx wird darüber hinaus hier nur zum aufblasen der Grafik benutzt. Die Effekte werden nicht wirklich besser, sondern nur mehr

So siehts wohl leider aus.
Den Thread kann man eh closen, da kommt nichts bei mehr rum.
Der Test war gut und sehr aufschlussreich, schade dass das immer in Polemik im Kommentarthread ausartet.
 
Zuletzt bearbeitet:
thuNDa schrieb:
Die meisten Effekte hätte man auch ohne großen abbruch auf konventionelle weise realisieren können, und wenn man dann noch zusätzlich havok(o.ä.) genommen hätte, wäre auch der performanceeinbruch viel geringer ausgefallen und man hätte damit sogar das gameplay beinflussen können.
Wie möchtest du mit "konventionellen" Methoden dynamische Partikel berechnen? Ich kenne keinen Havok-Titel, der das beherrscht. Somit ist deine Aussage eine reine Vermutung.
Wattebaellchen schrieb:
Physx wird darüber hinaus hier nur zum aufblasen der Grafik benutzt. Die Effekte werden nicht wirklich besser, sondern nur mehr.Andere Titel haben mit Havok Physik eingebaut die in das Spielgeschehen eingreift.
CPU-PhysX wird für's Gameplay benutzt, so wie Havok. GPU-PhysX für mehr Effekte. Bitte differenzieren, denn PhysX ist nicht gleich PhysX. Und wenn doch Havok angeblich alles besser kann - warum zur Hölle wird's dann nicht genutzt? Weil den Devs PhysX offenbar besser gefällt, es mehr Optionen bietet, besser supportet wird oder sonst was. PhysX ist verbreiteter als Havok und das sicher nicht, weil NV jedem Dev Geld rüberschiebt :rolleyes:
Wattebaellchen schrieb:
Dass Mafia noch DX9 ist, liegt vielleicht auch an der Aussage von Nvidia das man eh nicht mehr braucht.
Du kannst unter DX9 (fast) alles rendern, was unter DX10/11 auch geht. Nur mal so am Rande.

Und noch eins zum Thema OpenCL: Physik per OpenCL? Darauf wirst du noch lange warten. Die Entwickler nutzen eher DirectCompute, etwa für TB Deferred Shading, MLAA oder Post-Effekte wie Depth of Field.

@ Schaffe89

Tja, dein Flame ist nicht gerade diskussionsfördernd :freak: Wenn ich schon "Machenschaften" lese - was hat NV denn verbrochen? Du kriegst Konsolen-Optik, so wie sie der Entwickler vorgesehen hat oder eben per GPU-PhysX mehr Effekte. Sehr böse ...
 
Zuletzt bearbeitet:
Netter Test,

Ich für meinen Teil finde das man auf PhysX gut verzichten kann, konnte es noch nie sinnvoll nutzen, ohne das mir die Performance so weit weggebrochen ist, das ich mich eher daran gestört gefühlt habe, als das ich mich an den schönen Physikeffekten erfreuen konnte.

Weiß nicht ob es jetzt schon erwähnt wurde, aber mir sind in eurem Bericht auf Seite 7 einige Zahlendreher aufgefallen.

Wie man an dem Diagramm schnell erkennen kann, kostet bereits die PhysX-Stufe „Mittel“ sehr viel Leistung. Umso schneller der 3D-Beschleuniger, desto stärker fallen die Einbußen aus. Während PhysX Mittel auf einer GeForce GTX 260 nur 37 Prozent der Performance kostet, sind es bei der GeForce GTX 470 schon 66 Prozent und bei der GeForce GTX 480 sogar 95 Prozent! [/url]

In dem Text steht das die GTX 260 37 Prozent ihrer Performance verliert, wenn man PhysX
auf mittel stellt, was nicht ganz stimmt laut dem Diagramm sind es 27 Prozent
Die GTX 470 soll 66 Prozent verlieren, es währen laut Diagramm eher 40 % und bei der 480 sind es keine 95 % sondern eher 49 %.
Würde man den Spieß umdrehen und sagen, man bekommt mit den angegebenen Zahlen im Text einen Performance Zuwachs, wenn man PhysX von mittel auf aus stellet, dann würde es wieder stimmen :)

Bei PhysX Hoch fallen die Beobachtungen anders aus. So rendert die GeForce GTX 260 in dem Fall um 70 Prozent langsamer als ohne zusätzliche Partikeleffekte, die GeForce GTX 470 um 95 Prozent und die GeForce GTX 480 um 121 Prozent. Wenn man die Benchmarks nun aber mit den Ergebnissen von der mittleren Stufe vergleicht, kann die höhere GPU-Leistung gut umgesetzt werden. Denn während die GeForce GTX 260 noch 24 Prozent bei der Umstellung verliert, sind es bei der GeForce GTX 470 17 Prozent und bei der GeForce GTX 480 nur noch 13 Prozent. [/url]

In diesem Text fällt es noch deutlicher auf, wie kann man mehr als 100 Prozent Performance verlieren? Selbst wenn man 95 Prozent der Performance verliert wäre das Spiel doch schon unspielbar und von 73,4 fps würden nur noch 3,67 fps übrig bleiben.


Mit freundlichen Grüßen
 
y33H@ schrieb:
Du kriegst Konsolen-Optik, so wie sie der Entwickler vorgesehen hat oder eben per GPU-PhysX mehr Effekte. Sehr böse ...

Das ist kein Flame, sondern die Realität deines Diskussionsverhaltens und des Diskussionsverhaltens generell hier in den Kommentarthreads, was der Grund ist warum diese geschlossen werden.

y33H@ schrieb:
Du kriegst Konsolen-Optik, so wie sie der Entwickler vorgesehen hat oder eben per GPU-PhysX mehr Effekte. Sehr böse ...

Es geht nicht darum was man bekommt sondern mit welchen Mitteln es man bekommt.
Diese Darstellung man bekommt etwas oder man bekommt etwas nicht, schimpft sich aufgrund der Sachlage und auch aufgrund des aufschlussreichen Tests als Polemik.
Aber macht nur so weiter ich bin raus.

Kris1982 schrieb:
Die GTX 470 soll 66 Prozent verlieren, es währen laut Diagramm eher 40 % und bei der 480 sind es keine 95 % sondern eher 49 %.

Nein im Test ist, soviel ich weiß, alles korrekt angegeben.

y33H@ schrieb:
Weil den Devs PhysX offenbar besser gefällt, es mehr Optionen bietet, besser supportet wird oder sonst was. PhysX ist verbreiteter als Havok und das sicher nicht, weil NV jedem Dev Geld rüberschiebt

Ja dann differenziere doch mal selbst zwischen GPU und CPU Physx.
 
Zuletzt bearbeitet:
@ Schaffe89

Hauptsache mich anschieben von wegen "diskussionsfördernd" und sich dann nach einem ebenso sinnbefreiten Nachtreten zu verabschieden *Applaus*
Es geht nicht darum was man bekommt sondern mit welchen Mitteln es man bekommt.
Noch mal: Du bekommst (Konsolen-)Physik wie vom Dev vorgesehen. NV packt für seine User eine Schippe drauf. So bindet man Kunden. Das ist halt im Leben so, da kannst du rumheulen so viel du willst. Ich heiße das weder gut, noch flame ich es - es ist ein Fakt. Also hör gefälligst auf zu behaupten, ich würde "Nvidias Machenschaften in ein besseres Licht zu rücken" und lass mich mit deinem Getrolle in Ruhe!
Das ist kein Flame, sondern die Realität deines Diskussionsverhaltens und des Diskussionsverhaltens generell hier in den Kommentarthreads, was der Grund ist warum diese geschlossen werden.
Zu dumm, dass immer mindestens zwei dazugehören :rolleyes:
 
Ich habe selbst mit zuschaltung von 3d vision und physx auf hi mit der gtx 480 ein flüssiges spiel.interessant ist das eigentlich durch 3dvision die performance um 50%sinken müste macht sie aber nicht.komich das ganze.
 
Schaffe89 schrieb:
Nein im Test ist, soviel ich weiß, alles korrekt angegeben.

Dann wäre es nett wenn mir mal jemand erklären könnte wie man mehr als 100% Performance verlieren kann? Zuwachs ist klar da kann man auch über 100 Prozent dazubekommen aber minus.
Habe ja deswegen extra eine Beispielrechnung dazugeschrieben.


Mit freundlichen Grüßen
 
Achso, im Text, ich war jetzt bei den Balken.
Ja das stimmt nicht, das gehört gefixt. :)

Airbag schrieb:

Naja das wurde jetzt eigentlich im kompletten Thread diskutiert, das muss man jetzt nicht mehr aufwärmen.
 
Nicht wirklich. Ich habe nur einen Haufen Behauptungen und Meinungen gelesen.
 
Ich habe noch einmal mein Video auf YouTube hochgeladen in dem ich mal ein wenig die PhysX Engine in Mafia 2 ausgereizt habe. Ich würde gerne mal sehen, wo das die Crysis oder Havok-Engine besser kann, wie das hier schon ein paar mal behauptet wurde.
Mafia 2 PhysX Tests

Man du bist ja schlimmer wie der "Terminator" :D

Im übrigen läuft Mafia 2 mit aktiviertem Physx zig mal besser als alle anderen Genre Kollegen wie Metro2033, oder aber auch Batman AA, von diesem komischen Cryostasis mal ganz zu schweigen.

Man kann auch immer alles in Grund und Boden reden und mit halbem Fachwissen glänzen wollen, der große Rest wird sich warscheinlich über ein tolles Spiel freuen!
 
Zurück
Oben