News Bilder zur PhysX-Techdemo für die Fermi-GPU

NV wäre gut beraten, CGCPU(CUDA)aus dem Bereich Consumer - Grakas herauszuhalten, sonst muß der geneigte Zocker Features mitkaufen,die er gar nicht braucht und die Karte
unnötig verteuert .PhysX wäre noch verkraftbar,da es ja Verbesserungen in Details bringt,
aber alles andere gehört da nicht rein, zumal man bei heiseonline schon brechnet hat,das
sich die eigentliche Grafikleistung nicht wesentlich erhöht...:freak:
 
lustig ....bei dem vid sieht man am anfang ein paar sachen aus nem sandbox, dann nur clips aus hollywood produktionen...da rechnen ganze farmen dran, aber nicht eine lächerliche karte....netter kiddiefang würde ich sagen...

Wenn ichs in Realtime sehe, das man aktiv eingreifen kann, dann bin ich begeistert. so ist halt n video. wäre so als würde ati mit herr der ringe kommen....da wurde die armee aus mordor auch mit firegl power berechnet....nur halt mit x-karten ^^
 
naja. nachdem die schon keine echte fermi karte gezeigt haben und die trotzdem als echte gezeigt haben, bin ich nicht überzeugt, dass dieses video von einer fermi karte gerendert wurde. ist ja einfach nur ein video und keine demo, in der man noch irgendwelche parameter in echtzeit umstellen kann
 
Zuletzt bearbeitet:
PhysX oder Havoc.. wann sind die nochmal erschienen? 2005/6? Ich hatte mir damals überlegt, ne PhysX Karte zusammen mit 2x XFX 7800 einzubauen.. wie unerwartet hab ich mir nur eine 7800 gekauft und nen halbes Jahr später nochmal eine dazu. Wie unerwartet hatte ich keine Physik-Probleme.. wie unerwartet hab ich die mit ner 9800M GT auch nicht.
Sieht zwar alles ganz nett aus.. aber solange es wenige Spiele gibt, die so Physik-"aufgebohrt" werden, wie z.B. Red Faction(neuen Teil nicht gespielt, ist nur eine Vermutung), lohnt es sich einfach nicht. Da kann ich die Physik Einstellung auch gleich aus- bzw runter schalten.
 
Seppuku schrieb:
Aber vielleicht kommen ja jetzt irgendwann auch mal Spiele, bei denn Physix sinnvoll verwendet wird und wirklich einen realen (und keinen künstlichen) Vorteil bringt.
Nvidia schießt sich da selbst ins Knie. Wer wird so verrückt sein und das Gameplay von Physx abhängig machen, wenn man eine Nvidia-Karte dafür benötigt? Besondere Bemühungen, Physx auf der CPU zu beschleunigen sehe ich auch nicht - kein Wunder, schließlich ist es Nvidias Aushängeschild dafür, wieviel ihre GPU doch einer CPU überlegen ist.

Btw: http://www.xbitlabs.com/news/video/...port_to_Nvidia_Only_Graphics_Sub_Systems.html
 
Zuletzt bearbeitet:
Ich muss schon sagen, das sieht mir alles wie schnell zusammengesucht und der Presse vor die Füße geworfen aus. Ich meine die PR von Nvidia kannte doch den VÖ-Termin von ATI auch. Das sollte doch keine Überraschung gewesen sein und man hätte wirklich etwas handfesteres und greifbareres als das bis jetzt gesehen vorbereiten können. Auch wenn die GT300 ein Knüller werden sollte bin ich von Nvidias PR doch arg enttäuscht.
 
Kann sich jemand an Cellfactor Revolutoin erinnern, da wurde Physx wirklich ausgenutzt um damit das Gameplay mehr als nur deutlich zu beeinfluss. Und das ganze lief auf einer Ageia P100 noch bevor nVidia den Laden gekauft hatte. Leider hat das Spiel einen sehr bösen Bug, dass es bei den meisten Leute überhaupt gar nicht läuft.
 
wird mal Zeit für interessante News! PissX reißt es nun wirklich nicht. Ich war völlig enttäuscht von Cryostasis , hab gedacht Wunder was und dann die Demo gesehen und wieder gelöscht. Solang nicht beide Lager eine gemeinsame Sache unterstützen ist das ne Totgeburt.
 
ja leider, dass sah aber heftig übertrieben aus das spiel xD war trotzdem witzig...

nun zu dem youtube video. ich bezweifle sehr stark, dass das realtime war... die einten oder anderen szenen vlt. aber warum zum teufel bringen die da hollywood produktionen mitrein??

so ein müll

greez
 
Tja wenn so eine Waterbox schon die ganze Rechenleistung braucht (die sicher voll ausgeschöpft wurde) bleibt wohl nichts für eine weitere Umgebung über. Da sieht man dann, wie weit wir von solchen Darstellungen in Spielen noch weg sind.
Btw. liest man nun schon fast in jeder Fachpresse, dass nvidia wohl noch einige Monate von der Massenproduktion und dem Release in weiterer Folge entfernt ist. Verwundert mich auch gar nicht.
 
eines der wenigen spiele die physik wirklich fürs spielgeschen nutzen ist red faction guerrilla. das ganze ohne physx und ohne gpu-beschleunigung. aussehen tuts auch noch gut.

ist halt schwierig für entwickler physik fürs eigentliche spielgeschehen bzw. spielrelevante dinge zu nutzen, wenns nur auf einer minimalen hardwarebasis funktioniert.
 
@ Screemer

Tja, deswegen beschreitet ATI ja auch den Weg mit OpenCL. Der Ansatz ist zwar nicht uneigennützig, bring aber uns allen was wenn die Spieleentwickler das Angebot in Zukunft annehmen. Jetzt brauchts dann nurmehr ein kräftiges Zugpferd unter den Spielen, denn ohne richtigen Blockbuster werden kaum weitere folgen.
Wobei ATI auch das Problem hat, dass die Physik nicht fürs Gameplay entscheidend sein darf, da sonst zu viele außen vor bleiben mit den Grakas die aktuell verbreitet sind und der Spieleentwickler dann kaum respektable Absatzzahlen erreichen kann. Ist gar nicht so einfach die Situation aktuell.
Edit:
Eine Idee wäre noch, dass ATI dem Spieleentwickler finanziell unter die Arme greift für dieses Pilotprojekt und dann ein richtig schönes Bundle anbietet. Mit einer noch ausstehenden HD 5770 wäre das ein guter Deal, denn wenn diese ähnlich performant wird (und der Preis wird sowieso stimmen), wandern davon wohl einige über den Ladentisch. Nur so ein Gedanke:rolleyes:
 
Zuletzt bearbeitet:
Ich frage mich, ob diese ganzen Zusatzfeatures, die ein Gamer gar nicht benötigt, sich nicht signifikant im Preis, vielleicht sogar im Stromverbrauch, niederschlagen. Einerseits kann ich mir nicht vorstellen, dass Nvidia sich stark aus dem Gaming-Segment zurückhält, andererseits fehlt mir inzwischen ein wenig die Fokussierung auf den Consumer-Bereich.
Nvidia ist ja der Überzeugung, dass die neuen Karten die Radeon-5xxx-Serie schlagen werden, aber das ist kann natürlich zum Großteil auch nur Marketingstrategie sein.

Ich bin wirklich sehr gespannt auf die verfügbaren Modelle (Ausstattung) sowie die ersten Testergebnisse. Dann ist endlich die Zeit gekommen, sich von meinem alten Athlon XP 1800+ und der GF4200Ti zu trennen :D
 
wie Exar_Kun erwähnte
Mich hauen die Zusatzeffekte in Batman nun wirklich nicht vom Hocker. "must-have" sieht anders aus.
... kann ich dem nur zustimmen. Batman ist ein klasse Spiel aber ohne die 1-2 PhysiX Spielereien wär's auch immer noch ein gutes Spiel. Wenn das alles sein soll was an Zusatzeffekten durch PhysiX möglich ist.. naja, das ist dann doch mehr 'nice to have'. Nach all den vollmundigen Versprechungen was alles möglich sein soll, habe ich bis jetzt nicht viel gesehen. Es wird sich mit DirectX11 zeigen, wohin die Reise mit Phsyik Spielereien geht. Ob dann letztlich nVidia PhysiX eine Rolle spielt, wird man sehen.
 
Zu den Demo-Videos möchte ich nur das zitieren (Danke founti):

founti schrieb:
Wenn ichs in Realtime sehe, das man aktiv eingreifen kann, dann bin ich begeistert. so ist halt n video.
 
El Diensto schrieb:
Es wird sich mit DirectX11 zeigen, wohin die Reise mit Phsyik Spielereien geht.

Ich hätte noch nichts davon gehört, dass eine Physik Bibliothek (PhysX, Havoc, Bullet, etc.) auf DX 11 (D3D11) mit Direct Compute umgesetzt wird. Leider!
 
Zurück
Oben