• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Video-Vergleich: Mirror's Edge auf Konsole und PC

Devport schrieb:
Ich finde die Folien fast betrügerisch. nVidia 86% schneller als ATI - natürlich nur weil man deren GPU Physik Berechnung nicht implementiert.
Stände AMD/ATI ja frei, dies zu tun. Nvidia hat bereits seine Unterstützung dafür angeboten:
http://www.gamestar.de/index.cfm?pid=398&pk=1946881
Da kann sich jetzt jeder selbst seinen Teil denken, wie wichtig AMD/ATI die Zufriedenheit seiner Kunden ist.
Aber bloß nicht mit dem "Feind" kooperieren ... :rolleyes:

DanMan schrieb:
Demnächst kommt bestimmt ein Spiel, dass dies nur mit ATi-GPUs kann* ...
Definitiv nicht!
ATI hat einfach nichts eigenes mehr. Jetzt wolln sie ja auf DX11 warten, um solche Effekte auf ihren Karten berechenbar zu machen. Das kann aber noch eine ganze Weile dauern ... eine ganze Weile, in der PhysX auf NVidia-Karten schon wunderbar funktioniert.
 
Stände AMD/ATI ja frei, dies zu tun. Nvidia hat bereits seine Unterstützung dafür angeboten:
http://www.gamestar.de/index.cfm?pid=398&pk=1946881

Naja, so einfach ist das nicht. Im Artikel steht, dass externe Entwickler die Möglichkeit gefunden haben, PhysX und CUDA auf AMD-Chips zum Laufen zu bekommen. Um das auf der neuen Generation zu testen, wollten sie ein Sample von ATI haben. Die haben aber keins gegeben. Hingegen hat Nvidia aber Hilfe angeboten. Klar, Nvidia hat ja auch Interesse daran, dass CUDA auf einer möglichst breiten Basis läuft. Das heißt aber nicht, dass Nvidia ATI Unterstützung angeboten hätte, sondern nur NGOHQ. Warum ATI die nicht unterstützt, kann von "ATI unterschätzt GPU-Computing" bis hin zu strategisch/politischen Überlegungen gehen. Oder die Anfrage kam eben beim falschen Sachbearbeiter an. ATI arbeitet ja mit Havok zusammen. Deren Physik-Engine ist ja weiter verbreitet als die PhysX. Ich denke aber eher, dass ATI auf eine allgemeine Schnittstelle, wie OpenCL und das Ding von MS wartet, statt sich mit solchen proprietären Sachen groß zu beschäftigen. Havok ist dann nur eine Übergangslösung, um Nvidia nicht zu mächtig werden zu lassen, bis allgemeine Schnittstellen am Start sind.
 
Wenn ich mir das so ansehe, sieht die Zukunft für ATI ziemlich düster aus (falls es überhaupt noch einen Zukunft für den Verein gibt).
Ich meine, PhysX haben sie verpennt, CUDA haben sie verpennt (vor allem auch im Professionellen Bereich wie z.B. Videoschnitt/Bildbearbeitung sehr wichtig).
Und dann kommen sie noch mit ihrem Fake-Videoencoder Avivo daher, der nur beweist, dass sie die komplette Entwicklung in Sachen GPU-Computing verschlafen haben.

Ich habe derzeit zwar eine HD4870 (wie war das nochmal mit PowerPlay2 :lol:) , das ist aber für mich sicher die letzte ATI Karte gewesen.
 
Zwei Sachen fallen mir dazu ein:
1) Schön das Physikberechnungen auf der GPU immer weiter genutzt werden
2) Unschön dass das Spiel "Mirror's Edge" mich mal so garnicht anspricht und mit der sterilen Grafik und der Story(?) von mir sowieso nicht gekauft wird.
Schade eigentlich
 
Öhm ja, mir sind auch keine bekannt :rolleyes:. Also nach der Liste, sollten diese Spiele Havok unterstützen! Ob die jetzt auf der GPU laufen, kann ich dir leider nicht sagen, da ich keine ATI besitze.

Mr. Bush

Edit: Aber ich denke mal, dass es ATI keine Probleme bereiten würde, wenn die es über die GPU laufen liesen, wenn sie es denn nicht schon tuhen?
 
Zuletzt bearbeitet:
mit dem Unterschied das havoc problemlos von jedem halbwegs aktuellen Prozessor dargestellt werden kann, ganz ohne GPU Nutzung.

Physx hingegen bremst auf einer CPU stark.

Ob der Grund dafür sein könnte das der ursprüngliche Entwickler auch Hardware verkaufen wollte und der jetzige sogar HAUPTSÄCHLICH dies bezweckt ? :rolleyes:
 
Havok auf CPU kann lange nicht soviele Partikel berechnen wie PhysX auf GPU. Das nutzen PhysX-Effekte dann auch aus. Klar, daß die dann nicht sonderlich dolle laufen auf einer CPU ... ein vergleichbarer Havok-Effekt mit genauso vielen Partikeln wär wahrscheinlich aber nicht (und wenn überhaupt, dann nur kaum merklich) schneller.
 
Zurück
Oben