News Was passiert mit PhysX, wenn DX11/OpenCL da sind?

@Lübke: Der Post oben war etwas kurz. Der zitierte Abschnitt sagt, dass GPU-Physik nur auf Nvidia läuft (derzeit. Die Frage ist, wie es mit HavocFX aussieht? Aber Intel wird das wohl weiterhin auf CPU alleine laufen lassen.)
Meine Aussage unter dem Zitat hat nur ein paar Punkte aus dem Artikel zusammengefasst:
PhysX bietet zur Zeit allerdings einen großen Vorteil: Physikeffekte können zumindest teilweise auf der GPU berechnet werden, weswegen sich einige Effekte deutlich schneller berechnen lassen und man somit mehr von diesen Verwendung finden

Aber mir ging es eigentlich gar nicht darum. PhysX kann man nicht durch OpenCL oder DirectX11 ersetzen. Man könnte nur eine Implementierung in SC oder OpenCL schreiben. Mehr nicht. Und da würde ein einfacher Satz reichen.
 
Zuletzt bearbeitet:
falls intel havok wirklich auf cpu beschränkt lassen sollte (was als cpu-hersteller ja sinn macht), wird havok es bei steigenden anforderungen aber zukünfitg schwer haben. dass die gpu in sachen physik-berechnung aufgrund ihres parallelisierten aufbaus einer x86-cpu um längen überlegen ist, ist denke ich eindeutig.

nv wird aber imho nicht um compute shader herumkommen, wenn physx zum standart werden soll.

in dem fall wird der konkurrent von physx wohl wirklich im noch kommenden direct physix von ms zu suchen sein. und wenn ms einen standart für windows-plattformen einführt, kann man sich denken, wies um die mitbewerber bestellt ist...
 
Zuletzt bearbeitet:
Lübke schrieb:
falls intel havok wirklich auf cpu beschränkt lassen sollte (was als cpu-hersteller ja sinn macht),
...
Sorry, aber das ist ja mal Stuss! Intel ist schon jetzt der gröste GPU Hersteller.
Zudem wird Intel mit labaree wohl noch einiges nachlegen, AMD möchte auch ne GPU on DIE und schon steht die Wahl der beiden, pro havok, wieder in einem ganz anderem Licht.

Nvidia ist, zumindest mit dem "bishergebotenen", nun wirklich NICHT auser Reichweite.
 
Lübke schrieb:
falls intel havok wirklich auf cpu beschränkt lassen sollte ...
Das ist keine "CPU-Beschränkung", sondern eine Beschränkung auf X86 und da Intel Larrabee ein X86-Manycore werden wird, der kein OpenCL oder Cuda oder ähnliches braucht um sowas auszuführen, wäre eine beliebte Physik-Engine, die ausschli8eßlich X86 und weder CUDA noch OpenCl spricht, goldrichtig für Intel. ;)
 
@lalachen: und welche intel-gpu sollte wohl in der lage sein physx zu berechnen? nebenbei sollte die auch noch das spiel darstellen können, was intel schon ohne physx kaum hinbekommt. anti aliassing und anisotrope filterung sind auf einem gma950 schon undenkbar in aktuellen spielen. und dann noch physx?

@MountWalker: auf den larabee bin ich auch mal sehr gespannt. aber ich habe meine zweifel, dass die erste generation des larabee viel zu melden haben wird. dazu ist intels rückstand viel zu groß. und mit x86 hardware wird man den parallelisierten shadern von ati und nvidia im highendsegment nicht nahekommen können. dazu ist x86 nicht gedacht. ich vermute viel mehr, dass der larabee die grafikberechnungen mit auf die cpu holen soll und die zu langsame chipsatz-grafik ablösen. erstes anzeichen dafür ist ja der atom-nachfolger, der angeblich eine integrierte gma950-grafikeinheit besitzen soll.
sinn: eine cpu kann man höher takten und belasten als einen chipsatz, ergo dürfte sich deutlich mehr leistung rrealisieren lassen, wenn man auf eine separate grafikkarte verzichten möchte. dass sowas spieletauglich sein wird, kann ich mir schon vorstellen. siehe gf9400 im chipsatz. aber eine highendgrafikkarte wird sowas imho niemals ablösen können. das ist eher was für office- und oem-rechner sowie spielekonsolen.
noch wichtiger wird aber sein, dass die shader aus der grafikeinheit zur deutlichen leistungssteigerung der cpu durch parallelisierte nicht x86-abhängige berechnungen beitragen wird (eben in anlehnung an gpgpu). imho wird intel die beiden architekturen gleichzeitig einsetzen wollen, um von beiden die stärken zu vereinen. spielegrafik dürften sie dabei wohl eher nicht im sinn gehabt haben...
aber warten wir ab, was die zukunft bringt ;)
 
Zuletzt bearbeitet:
Ach Leute, Physik x wird kommen und das ist gut so. Kann es nur begrüßen wenn sich die Spiele weiterentwickeln. Dabei ist mir das voll egal ob NV oder ATI oder Intel. Irgendwie wird alles laufen und auch irgendwann ein Standardt kommen.

Wenn ich daran denke, die ersten 3 D Karten wurden als Todgeburt bezeichnet und wer brauch das und was soll das usw. Selbst Computerzeitschriften hatten diese als absolut ungerechtfertigt bezeichnet. Aber was ist passiert? Es kam 3DFX und dann man Nvidia mit ihren Karten. Welche nun besser ist kann und möchte ich auch nicht sagen aber 3DFX hat sich zu lange auf den Erfolg ausgeruht. Pech für die gut für NV und ATI. Genau so wird es kommen mit Physik X. Es wird sich erst ein eine Richtung entwickeln und dann als Standardt erscheinen und wir werden kaum etwas davon mitbekommen uns aber daran erfreuen wie geil die Spiele aussehen. Denke das wird noch 2-3 Jahre dauern und solange werden es schöne extras sein die uns das Spielen verschönern aber eigentlich doch nur dazu da sind um Erfahrungen damit zu sammeln bevor die ersten Titel kommen die Full Physik X haben. Ich könnte wetten das es dann total egal ist ob man NV oder ATI hat. Können tun es beide Chips auf eigenen Plattformen und ich könnte wetten das diese Chips es auch auf einer anderen Plattform schaffen. Könnte mir auch vorstellen, dass die vorhandenen Karten noch 3-4 cm länger werden und dort ein eigener Chip drauf ist der nix anderes macht als sich um Physik x zu kümmern. Wie schon die ersten Zusatzkarten usw. Egal wie Leistungsstark eine GPU ist aber stellt euch mal bitte Crysis vor in 1900x1600 in Full Details DX 10 oder 11 dann mit nur einer Grafikkarte und Physik X. Gut das die GPUs es können aber da ist auch irgendwann Ende und darum würde ich einen seperaten Chip begrüßen der nix anderes macht aber mit auf der Karte sitzt.
 
Zuletzt bearbeitet:
>Kann es nur begrüßen wenn sich die Spiele weiterentwickeln.

Wie soll das gehen wenn nur noch Konsolenports rauskommen?
 
MountWalker schrieb:
Das ist keine "CPU-Beschränkung", sondern eine Beschränkung auf X86 und da Intel Larrabee ein X86-Manycore werden wird, der kein OpenCL oder Cuda oder ähnliches braucht um sowas auszuführen, wäre eine beliebte Physik-Engine, die ausschli8eßlich X86 und weder CUDA noch OpenCl spricht, goldrichtig für Intel. ;)
Gerade bei Larrabee als X86-Manycore (evtl. 32 Cores?) wäre sowas wie OpenCl doch hilfreich um die Parallelisierung gescheit hinzubekommen, ist doch eh sowas wie ein leicht vereinfachtes und besser auf parallelisierung ausgelegtes C?
OpenCL (Open Computing Language) ist eine Programmierplattform für CPUs, GPUs und DSPs ... Die Sprache selbst basiert auf der Syntax von ISO C99 und wurde um weitere Datentypen und Funktionen zur parallelen Verarbeitung erweitert.
Ausserdem läuft dann das Programm/Game whatever auf der GPU(z.B. Larrabee) und der "normalen" CPU gleichzeitig, afaik mit "automatischer" Lastverteilung. (evtl. sogar auch noch auf dem DSP einer Creative X-FI, sollten die den Arsch hochkriegen und einen Treiber für OpenCL rausbringen :rolleyes:)
Natürlich könnte Intel auch eine eigene Sprache bringen die noch besser auf die eigene Hardware abgestimmt ist, oder beides?

EDIT
: Intel bringt für Larrabee die "Larrabee new instructions", letztere könnten ja trotzdem auch per OpenCL Extension? oder einfach per OpenCL Treiber/Compiler? unterstützt werden.

EDIT2: das letzte Edit, versprochen ;), dies fand ich aber sehr interessant:

Larrabee can support industry-standard APIs
– DirectX Graphics, Compute Shader
– OpenGL, OpenCL
• Plus Larrabee Native applications
– Access the full power and flexibility of the architecture
– Use standard C/C++ compilers and tools

Quelle: http://sa08.idav.ucdavis.edu/foley-programming-larrabee.pdf
 
Zuletzt bearbeitet:
Kleine fehler:
Cell ist powerpc nur in leicht veränderter form also 1 cpu mit 2threadr und 7 ausführungseinheiten.

In der 360 dien ein ati chip mit unifield shadern, also nutzbar.

Mit open cl wird jeder code auf der graka lauffähig sagst du. Ich sage das es dann auch kein prob ist cuda auf ner amd karte zu nutzen.
 
Zurück
Oben