News ForceWare der 90er-Reihe mit Havok FX für SLI

Ok, war wohl zu hoch von mir angesetzt zu erwarten, dass du ohne Zitat verstehst, worauf ich mich beziehe. Also hier, du hast folgendes gesagt:
bensen schrieb:
wer sagt das physx nicht auch nur "optische" physik bietet?
...
Cellfactor lebt von interaktiver Physik - Punkt. ;)

Und wenn du mal Preview-Videos zu Cellfactor wirklich verstanden hättest, würdest du auch nicht auf die Idee kommen, das mit Zentralprozesssoren zu berechnen oder auf die Interaktion zwischen Objekten und Charakteren zu verzichten, weil schlussendlich das Gameplay komplett auf die Interaktion zwischen diesen Objekten und Charakteren ausgelegt ist. Und unterschiedliche Objektmengen bei unterschiedlichen Systemen wäre für Multiplayer unmlöglich.
 
Zuletzt bearbeitet:
Prinzipiell sehe ich das ähnlich wie Affinator, auch wenn ich von der Materie an sich weniger Ahnung habe.
So bleiben mir nur Testberichte und die bringen mich doch etwas ins grübeln, auch wenn die Aussichten auf das theoretisch mögliche natürlich bombastisch sind!

Allerdings will, ich wenn, dann wirkliche Physik, und nicht sone Augenwischerei, den Kram können se mal gleich stecken. (Dass ich mit z.B. Raketenwerfern und ähnlichem Die Levelarchitektur nichtmal im geringsten ankratze geht mir immer noch auf den Sack ^^) Wenn dass die PhysX, das Havok FX Zeug aber nicht kann, ist für mich die Sache im Falle eines Falles geklärt ;) . Zumindest, wenn das Zeug brauchbar ist!!! Der momentane Stand der Dinge ist in keinem Fall überzeugend finde ich.

PS:
klar, im moment noch eher sinnlos, aber war das SLI nicht auch am anfang?
War sinnlos, ist sinnlos und wird immer sinnlos bleiben ! :) Den Schmarnn hätte man _nie_ aus den Köpfen der Marketingkerle rauslassen dürfen! (bevor einer schreit "aber Voodoo .. *sülz*" da hatte es insofern Sinn, dass man damit in ner höheren Auflösung spielen konnte, was mit nur eine Karte technisch nicht möglich war und auch das war nur als nette dreingabe zu verstehen)

Denkt bitte drüber nach und verteufelt nicht sofort meine Meinung :D
!!
 
wäre es denkbar möglich, wenn ich meine Geforce7800GTX dann in die rente schicke und mir dann die nachfolgeGeneration den G80 dann mir hole, das ich dann die alte 7800GTX dann als Physik berechnungen benutzen kann? Oder geht das nur mit ein und der selben Generation im SLI betrieb? So wie ich mir das vorstelle wäre es doch rein theortisch möglich ..? ..
 
war ja klar das du mal wieder so reagierst
ich spreche von richtigen spielen nicht von irgendwelchen demos
klar kann man mit physx interaktive physik berechnen, die frage ist wie das in zukünftigen spielen umgesetzt wird
aber war war wohl zu viel von mir verlangt das der leser meines posts ein wenig mit denkt:stacheln:

noch weiss keiner wie das spiel cellfaktor wirklich wird, denn verkaufen wollen die das teil auch
wann soll das spiel kommen so dass es wenigstens ein paar mal verkauft wird?
und ob eine grafikkarte zur berechnung dieser physik nicht ausreicht muss auch noch gezeigt werden, kann zwar sehr gut sein(hab nie was anderes behauptet) aber bewiesen ist da noch gar nichts
 
Mal ganz kurz, dieses ganze Physikberechnungszeugs, ob jetz von AGEIA (oder wie auch immer) oder NVIDIA/ATI ist doch nur der große Schrei nach Geld! Computerspiele gibts doch schon mindestens 20 Jahre, und wieso sollen jetzt plötzlich die CPUs zu schwach sein um diese Physik zu Berechnen? Ich meine, wozu brauche ich denn sonst die CPU?? Hallo? Überlegt euch doch mal was da vorgegaukelt wird!

Wenn die Karten in Benchmarks besser dastehen, liegt das nur daran, dass die Industrie sich hier abgesprochen hat! Über Optimierungen wäre die CPU auch in der Lage mindestens genausoschnell die Physik zu Berechnen wie die Karten, würde die SW darauf optimiert! DAS BRINGT ABER KEIN Geld, also wird das nicht gemacht! Macht doch mal die Augen auf! Und gab es in älteren Spielen keine Physik? Wasser hat sich auch bewegt und es gab auch Tropfen und bewegte Felsen usw.... Im Endeffekt wird der Verbraucher doch sowieso gezwungen, das zu Kaufen, was die Industrei will!
 
bensen schrieb:
klar kann man mit physx interaktive physik berechnen, die frage ist wie das in zukünftigen spielen umgesetzt wird ...
Hast du aber so nicht gesagt und das hat nichts mit mitdenken zu tun. Wenn du willst, dass ich die potentiellen Interpretationsmöglichkeiten deiner Beiträge derart breit fächere, dann dürfte ich ja nie wissen, wovon du redest. :rolleyes:

bensen schrieb:
noch weiss keiner wie das spiel cellfaktor wirklich wird, denn verkaufen wollen die das teil auch
Und deshalb verzichten sie mal eben komplett auf das Spielprinzip, ja? Machen dann mal eben ein stink normales UT draus oder wie? :hammer_alt:

bensen schrieb:
und ob eine grafikkarte zur berechnung dieser physik nicht ausreicht muss auch noch gezeigt werden, kann zwar sehr gut sein(hab nie was anderes behauptet) aber bewiesen ist da noch gar nichts
Derzeit kann keine Grafikkarte Informationen zurück an die CPU senden, wenn die CPU von der gpu-berechneten Physik keinen Wind bekomt, wie soll sie sich dann auf Charaktere auswirken?

Wann das Spiel fertig wird ist mir im übrigen scheiß egal, weils mir überhaupt nicht darum geht, hier irgendjemanden zum sofortigen Kartenkauf zu überreden. :rolleyes:

@ Nightmare10

Jaja, du spielst aktuelle Computerspiele auch gern ohne 3D-Grafikchip? :hammer_alt:
 
Zuletzt bearbeitet:
bensen schrieb:
und meinst du das spiel wird wirklich so kommen, so dass nur physx-besitzer die funktionen haben? wenn ja stehst du wieder vor dem problem dass kein multiplayer möglich ist

ageia hat riesige probleme, auch wenn die karte noch so gut ist
Ich weiß nicht wie es bei Cellfactor kommen wird, aber generell gibt es Szenarien in denen eine PhysX Karte auf dem Server zur Berechnung der Spielphysik für sämtliche Spieler ausreicht, die ein Game auf dem betreffenden Server joinen.

Eine weitere Alternative bleibt nach wie vor geskriptete Physikdarstellung für diejenigen, die keine PhysX Karte haben.

Stand so in der Maiausgabe der C't.
 
Derzeit kann keine Grafikkarte Informationen zurück an die CPU senden, wenn die CPU von der gpu-berechneten Physik keinen Wind bekomt, wie soll sie sich dann auf Charaktere auswirken?

naja... laut dem 2. Bild im Artikel bastelt NV durchaus an der Möglichkeit, das die Grafikkarte auch zurück Daten an die CPU senden kann.
 
ich denke es wäre auch wichtig zu schaun was weniger strom braucht... ne GPU oder ne PPU !
 
Also, ich freu mich auf G80 mit Havok FX + Unreal Engine 3. Sabber, lechz...
 
Um ehrlich zu sein kommt es mir ein wenig fadenscheinig vor, mit welchen Argumenten Nvidia und Konsorten ihren doppelten GPU-Verkauf anzukurbeln versuchen. Spezialisierung ist IMMER besser, keiner würde auf die Idee kommen, die Grafik von zwei FX-60 berechnen zu lassen, oder? Ich würde mich freuen, wenn man mal wieder ein bisschen mehr an effiziente Ergebnisse für die Nutzer denkt (Preis-Leistung) und nicht von allen Luxuskomponenten zwei bis vier (scheiss auf den Preis) in den Rechner reinstopfen soll. Die Grafikkartenhersteller kriegen echt den Hals nicht voll.

GPU, Prozessor, PPU - das macht für mich am meisten Sinn. Natürlich nicht gleich wenn eine neue Technologie auf den Markt kommt... erstmal abwarten. Ich denke, in einem Jahr wird es PPUs in unterschiedlichen Leistungsklassen geben. Die "Eröffnungsedition" kriegen wir dann hinterhergeschmissen.
 
Zuletzt bearbeitet:
30 Watt sind doch recht wenig für eine PPU. Also wenn's wirklich was bringt und unterstützte Spiele auf dem Markt sind, werde ich mir so eine Karte leisten.

mFg tAk
 
Naja, man darf mal auf erste Benchmarks gespannt sein, was mich jedoch daran stört ist, dass es "SLI graphics OR physics on GPU2" heißt --> AND, also eine variable Aufteilung, was eigentlich "kein Problem" sein sollte, wenn die Physikberechnung über die Shader abläuft, und da eine GPU sowieso aus mehreren Shadereinheiten besteht, wäre wesentlich schlauer. Das würde auch durchaus Sinn machen:

Beispiel: Man kämpft in einem Dungeon von Oblivion (mit verbesserter Physik): Pfeile sausen physikalisch berechnet durch die Luft, Partikel sprühen von überall her und Gegner wie der Sturmatronach zerfallen in hunderte, physikalisch korrekt berechnete Teile. Hier würde es Sinn machen, Physik auf die Grafikkarte auszulagern, da bekanntlicher Weise in Dungeons die Framerate viel höher ist als sonst wo--> die Leistung einer zweiten GPU wird also nicht zwingend benötigt.
Verlässt man den Dungeon, so hat man zwar eine tolle Übersicht über ganz Cyrodil, aber selbst bei High End systemen eine schlechte Framerate, hier wäre es also sinnvoll, wieder die größten Teile der zweiten GPU für die Grafik zu verwenden, das in so einer Szene sowieso kaum Physik berechnet werden muss


Fazit: Sollte Ageia es schaffen, die Spieleunterstützung und die Performancesteigerungen zu verbessern und zeitgleich den Preis einer PhysX Karte auf Soundkarten Niveau zu senken, denke ich, dass diese Technologie die besseren Karten (Achtung billige Anspielung ;) ) hat. SLI Physics wird auf den kelinen Kundenkreis mit SLI Systemen zumindest vorerst beschränkt bleiben und auch nur für die interessant sein, die sowieso mit einer GraKa auskämen
 
Zuletzt bearbeitet:
*IRONIE ANFANG*
Genau!
Nächsten Monat kommt dann Intel mit nem neuen Treiber, wo dann der zweite Kern der CPU die Grafik berechnet.
Und da dann die PPU's keine Daseinsberechtigung mehr haben, bringt Ageia dann die Implementierung sonstiger Berechungen (z.B. KI sowie ein im Hintergrund laufendes Windows) in ihre Chips.
Und am Ende sind wir dann bei einem universalen Octcore-Prozessor angekommen (8 Kerne), der allgemein für alles zuständig ist. Vom trivialen Betrieb des Rechners über simple Programmoperationen, mathematische Berechnungen und Videocodierung bis hin zum laufen eines Spiels mit allem drum und dran.
Cell läst grüßen.
*IRONIE ENDE*
 
Ich finde, man sollte den zweiten Core der CPU eher zum Berechnen der Ki nutzen. Das ist wohl auch de Pläne der Spielehersteller, da die KI auch schon einiges an Performance frisst. Dazu gab es einen interessanten Artikel in einer der letzten c't zeitschrift.

Wegen Physikberechnung un CPU: Die CPU wäre viel zu schwach die Physik im Spiel zu berechnen. Grafikkarten oder diese speziellen Physikkarten haben hier viel mehr Leistung in diesem Bereich. Steht übrigens in der letzten Ausgabe der c't drin ;) Ja bin nun mal ein c't leser sorry :D
 
Hm es geht nicht darum das ne physik karte schneller ist als nen cpu kern klar is die schneller aber zu welchem preis bitte ? 300€ bzw ne 2. Graka auch für 300€ in 3-4 jahren verkaufen sie euch dan auch noch ne KI karte weil klar is ja schneller ~
 
und du denkst nicht, dass der preis mit der zeit fallen wird?
im moment ist so ne karte schwachsinn, aber bis sie sich auszahlt, wird sie nen batzen billiger sein ;)
 
Das ganze erinnert mich immer wieder an den 2d karten streit vor ein paar jahren... wer brauch schon eine grafikkarte.. so ein schmue ;)
 
Und die Lager spalten sich,mal wieder. :rolleys
Physik wird kommen! Egal auf welche Weise! Hoffen wir nur das sich ein standart durchsetz und nicht 3 (ati/nvidia/agia) etablieren, weil dann schauts für den Verbraucher düster aus! Dann muss man sich überlegen welche spiel man sich kaufen will, um sich dann die entsprechende Hardware zu kaufen,weil spiel X nur mit Ati die gewünschten effekte zeigt, aber spiel y nur mit nvidia karten ordentliche Physik darstellt!

Das wäre der gau!

Wer braucht die ganze Physikgeschichte? Richtig eigentlich bloß Ego-shooter! Es gibt natürlich auch außnahmen!Buglivion.(besitze ich und finds trotz der bugs hammer)
 
Zurück
Oben