News 3DMark Vantage und die Vorteile der PhysX-PPU

der vergleich hinkt schon deswhalb völlig, weil eine Grafikkarte für sämtliche Grafikausgabe gedacht ist.

eine PPU taugt nur für pipifax Partikelphysik(merke : nicht Interaktivphysik !). Auf sowas können viele eben gerne verzichten.

Auf Grafische Ausgabe zu verzichten ist ja wohl was völlig anderes.



Bei einem höheren Detailgrad müssten sich die Punkte aber doch verringern?

der 3dmark senkt die Objekte welche die cpu anzeigt.

Vorteil : keine Last mehr für cpu
Nachteil : Kollisionen oder ähnliches mit der restlichen Welt sind unmöglich für die PPU

sowas fällt in einem synthetischen benchmark der immer gleich abläuft logischerweise nicht auf.
 
"eine PPU taugt nur für pipifax Partikelphysik(merke : nicht Interaktivphysik !). Auf sowas können viele eben gerne verzichten." von dem habe ich noch nie gehört, das weis ich nicht.


aber der erlgiehc mit der gpu ist insofern nicht schlecht, da mann sie DAMALS auch nicht brauchte, ein windows ohne grafikkartentreiber ist für mich un benutzbar wenn man ichtmal ruckelfrei scrollen oder fenster verschieben kann. Das meinte ich damit,

Was ich damit sagen mnöchte, das mann die gpu nicht erfunden hatte um monitore anschließen zu können, (sowas KONNTE man auch ohne) sondern um grafische berechnungen durchzuführen, weil sie auf ihr viel schneller vojnstattengingen als nur auf der cpu. Deshalb bina ich auch für eine ppu und bin sicher das sie sich früher oder später durchsetzten wird. den eine ppu kann eben viel mehr berechnen als eine jetzige cpu mit x kernen.

aber wie bereits gesagt, "eine PPU taugt nur für pipifax Partikelphysik(merke : nicht Interaktivphysik !). Auf sowas können viele eben gerne verzichten.
" das kann ich mir erlich gesagt nicht vorstellen, vllt hast du ja infos, links oä.
 
@Tigereye1337

Ich werde mir niemals eine 2. Graka in meinen Rechner einbauen, nur für das bischen Physik.
Auf jedem AthlonXP 2500+ bekommt man zb. HL2 mit Havok zum laufen.
Sicher gibt es in dm Spiel nie mehr als 10 Objekte gleichzeitig, die berechnet werden müssen.
Aber aktuelle Quads, und bald 8-12 Kern CPUs, kommen locker mit einem Vielfachen desen klar,
wenn die Spieleentwickler das Potential auch nutzen würden.
 
tja hier kommt halt wieder die schwierigkeit das es nicht so einfach geht alles in mehr als 2 threads aufzuteilen.......
deshalb sehe ich im mom eher schwarz für die mehr als 4 kerner im x86 bereich!
 
vllt hast du ja infos, links oä.

Eine etwaige Verwarnung deswegen geht auf deine Kappe :p


Der Grund warum es nicht funktioniert :

Eine PPu ist deswegen schneller wie eine cpu, weil/wenn sie mehrere Objekte gleichzeitig berechnet.

Das führt aber zu einem Problem, wenn Objekte kollidieren, da sie dann nicht unabhängig berechnet werden können.

Bsp :

Objekt 1 bis 4 werden gleichzeitig berechnet.

Kollidieren Objekt 1 und 2 während der bewegung, und Objekt 1 würde DARAUFHIN mit objekt 3 kollidieren passiert das nicht mehr, da Objekt 3 sich zu diesem zeitpunkt längst "bewegt" hat.

Im Extremfall würde das beispielsweise so aussehen, das 2 Autos crashen und Auto 3 einfach durch den Crash hindurchfährt bzw erst kollidiert wenn es IN den beiden anderen ist.


Mal ganz davon abgesehen das viele Dinge wie z.b. die Spieler und die "statische" Welt von der CPU berechnet werden müssen aufgrund der Spielmechanik und Kollisionen dieser Objekte mit PPU-berechneten objekten nahezu unmöglich sind, da der Kommunikationsaufwand unendlich wäre.

Auch alle Objekte mit denen der Spieler kollidieren kann sind daher nur sehr ineffizient von einer PPu zu berechnen.
 
hmm, ich denke diese diskussion wäre endlos, lass einfach abwarten und tee trinken,

aber ich denke mal das sie bei der gpu das selbe dachten? naja tee trinken.
 
PPU und GPU kann man nicht direkt miteinander vergleichen. 3D-Grafikberechnung ist wunderbar für dedizierte Chips geeignet, denn kein Pixel und Vertex hängt von einem anderen ab. Das ganze ist also ein "embarassingly parallel" Ding, und so was lässt sich herrlich auf tausende Cores verteilen. Die Cores dafür können aber die billigsten Dinger sein, die man findet.

Physik, dagegen, hat zwar auch parallele Anteile, aber entscheidend sind immer einerseits Verbindungen zwischen Objekten und andererseits Kollisionserkennung. Beides sind Aufgaben die nicht annähernd so schön parallel sind, ein Physik-Prozessor muss also mehr wie ein normaler Prozessor funktionieren und kann nicht so parallel sein. Natürlich helfen spezifische Optimisierungen, aber ob das reicht um mit immer stärker steigenden CPU-Leistungen mitzuhalten ist fraglich.

Leuten, die es interessiert, würde ich empfehlen mal LISP-Maschinen anzusehen. Speziell dedizierte Hardware für einen bestimmten, relativ aufwändigen Task (hier die Programmiersprache LISP ausführen, was schwieriger ist als es klingt), teuer, konnte durch die bessere Architektur dann auch Kreise um normale Hardware laufen. Allerdings dauerte es nicht lange, bis die in großen Mengen produzierten Mainstream-Geräte die teuren Sonderlinge überholten und abhängten. Heute sind sie nur noch Geschichte.

Ich weiß es nicht sicher, aber ich kann mir vorstellen, dass es den PPUs sehr, sehr ähnlich ergehen wird.
 
M0rre schrieb:
ich freue mich schon auf die Physx-karten mit ln2-pot xD

hat bestimmt noch keiner versucht die zu übertakten :P

hehe genau das selbe hab ich mir auch gedacht
ist eigentlich nichtmal soweit hergeholt, bei extrem-clockern zählt ja jedes kleine pünktchen und jede millisekunde
 
Mememe, AGEIA behauptet ja, dass ihre PPU eben nicht nur ein reiner Parallelrechner ist sondern hochvernetzt und glump. Man sieht es ja an ihren Demos, dass die Karten sehr wohl für Spielephysik taugen.
Was mich daran nervt ist, dass sie rein garnichts über die Funktionsweise preisgeben...
 
Ich glaube nicht, dass das in Spielen zu einer viel höheren Leistung führen wird, da diese meist von der Gpu abhängen und die Cpu nur die Koordinaten der einzelnen Texturen Vorgibt, ausserdem sind die Cpus heutzutage schon relativ rechenstark.
 
Es ist ganz einfach, die PPU ist tot!

Die Produktion wurde eingestellt und die IP von Ageia ist an NV übergegangen, Nvidia hat ein Standalonefeature, das niemand nutzen kann, der nicht mindestens 2 Grafikkarten in den Rechner einbaut und für das es derzeit und auf Sicht keine auch nur annähernd dies rechtfertigende Software geben wird.
 
Das der RAM keinen einfluss(Timings/Größe) auf's Ergebnis hat ist echt enttäuschend. Obwohl in der Zukunft mehr Programme von größerem RAM frofitieren werden (z.B x64 Programme), setzt Futuremark keinen Wert auf großen und schnellen RAM....:rolleyes:
CL3/4 bringen keine Mehrleistung, kannst höchstens besser mit takten, die Größe ist da allerdings schon relativ wichtig, nur hab ich noch kein Game gehabt bei dem mein Ram auch nur ansatzweise ausgelastet war, dauert wohl noch bis RAM mal bischen mehr genutzt wird.:lol:
 
stell mal um das dein System nur das Ram verwendet und nicht dauernd die Auslagerungsdatei vollstopft. bringt leistung und aus einmal sind 4G Ram auch nicht mehr zu viel.
 
als erstes, eine extra PPU karte ist geschichte, wird es nicht mehr geben, wird auch nicht gebraucht.

ich denke sie wird höchstens als ein weiteres "feature" einer grafikkarte weiter existieren.

und zum RAM, du hast noch nicht Supreme Commander im Netzwerk gespielt, oder??
2GB sind da sehr schnell voll!!
 
Zurück
Oben