News nVidias G80 kommt mit Physikbeschleunigung

Also ne neue Grakageneration, also GF8 und DX10 würd ich nicht nehem, also die 1. nicht. Gleich DX10 und Shader 4.0 und gleich nen Physikchip und andere Spielereien! Nix für mich ^^ Ich nehme den G81!
 
drago-museweni schrieb:
@zappels den Preis für eine 8800GTX mit Wakü lasse ich mir noch eingehen auch wenn das im selberbau wieder 200€ weniger sind aber ich denke nicht das eine 8800GT 499€ kosten wird denke eher 400€ und die GTX denke ich mal so 540-500 am anfang dann nach 4Monaten bei 450€ einpendeln wird hoffentlich will so eine haben:D

Hab den link gefunden.... hier isser... http://winfuture.de/news,27541.html
 
Pepsito schrieb:
Das ist normal für DX 10 Karten!
Eben. Ich weiß gar nicht was die News soll. DX10-Grakas sind grundsätzlich für interaktive Physikberechnungen geeigent.

nVidia tut jetzt so, als ob das ein super Feature wäre. Die werden es sich natürlich nicht entgehen lassen auf den Physik-Hype aufzuspringen, aber die Wahrheit ist ganz einfach, dass DX10 grundsätzlich solche Möglichkeiten bietet.
 
DX9 bietet es auch schon, Beispiele gab es ja schon. Es ist halt eine Frage der Definition. Bedeutet Physik nun echte Physik oder nur Effektphysik. Sowas kann man leicht verschweigen. Wie es denn jetzt hier? Ist es bei DX10 möglich, von der Graka zurück zur CPU Daten zu schicken?
 
die Frage ist erstmal ob die tolle physik berechnungen in der Grafikkarte auch dem CPU mitgeteilt werden können, denn wenn die CPU nicht weis was mit den objekten passiert ist hat das ganze keinen einfluss auf das Spiel, also alles nur eyecandy aber fürs gameplay am ende wertlos (wobei eyecandy immer gut ist nur ERSETZT es dann nicht die Ageia PhysX!).

bin da noch sehr skeptisch glaub eher nvidia und ati wollen sich von dem ageia physX kram nich in die suppe spucken lassen und machen deswegen jetzt ne pseudo physik auf ihre karten damit alle jubeln die keine lust haben noch mehr geld für ne zusätzliche karte auszugeben.

afaik stehen auf ageias checkliste UT2007, Gothic 3 und Sacred 2 schon ne weile drauf...
soviel zum thema keine Toptitel :freaky:

wobei ich das ganze geschwafel um Physik eh nicht so ganz nachvollziehen kann,
ich habe EINE 7800GT, nen 2,8GHz AMD A64
...und Flatout 2 rennt wunderbar!
das game hat keine unterstützung für Physix krempel und wer das game mal gesehen hat weis was da so in der Gegend rumfliegt.... ne MENGE!
Wüsste nicht was ne Physik Karte da noch großartig verbessern könnte.
Wenn mir das ganze dann bei Flatout 3 in 5 jahren oder so 35fps und 7 zusätzliche Effekte mehr bringt lass ich mich gern überreden nur muss das erstmal wer beweisen / forführen / mit und ohne benchen etc. und solang das nich passiert ist kauf ich erstmal GARNIX :lol:


habt ihr schon von der neuen KI karte gehört? (kein witz!)

Ich wär eher für eine KI/Physik karten kombo als den kram jetzt noch auf die Grakas zu packen.
und wenn die karten nicht im KI/Physik modus sind (also nicht gerade ein darauf optimiertes spiel läuft) sollte die Karte doch bitte auch für irgendwas andres gut sein! und wenn das ding nur paar berechnung von der CPU abnimmt damit man paar fps mehr bekommt oder den Grakaram erweitert oder wat weis ich...
 
Zuletzt bearbeitet:
ZeroBANG schrieb:
die Frage ist erstmal ob die tolle physik berechnungen in der Grafikkarte auch dem CPU mitgeteilt werden können, denn wenn die CPU nicht weis was mit den objekten passiert ist hat das ganze keinen einfluss auf das Spiel, also alles nur eyecandy aber fürs gameplay am ende wertlos (wobei eyecandy immer gut ist nur ERSETZT es dann nicht die Ageia PhysX!).
Das ist gerade der Unterschied zwischen den Berechnungen auf DX9 Karten und den Berechnungen auf DX10 Karten. DX10 Karten haben direkten Zugriff auf den Hauptspeicher des Rechners und können somit auch mit der CPU kommunizieren. DX10 Karten sind in der Hinsicht echt der Wahnsinn. Die Verhalten sich mittlerweile mehr wie Koprozessoren als wie Grafikkarten. Mittlerweile beherrschen sie sogar Integer-Berechnungen, obwohl diese ja für Grafikanwendungen überhaupt nicht benötigt werden. Mit DX10 Versucht man also die GPU für weit mehr nutzbar zu machen, als nur für Grafikberechnungen.

Mit DX9 kann man zwar, wie schon gesagt wurde, wunderbare Eye-Candy Physikeffekte berechnen, aber mit DX10 ist sogar intreraktive Physik möglich. Deswegen wird es Ageia auch wirklich sehr sehr schwer haben.

Wenn es diese Möglichkeiten in DX10 nicht geben würde, dann hätte Ageia vielleicht eine Chance, aber so wird es echt schwierig werden.


wobei ich das ganze geschwafel um Physik eh nicht so ganz nachvollziehen kann,
ich habe EINE 7800GT, nen 2,8GHz AMD A64
...und Flatout 2 rennt wunderbar!
das game hat keine unterstützung für Physix krempel und wer das game mal gesehen hat weis was da so in der Gegend rumfliegt.... ne MENGE!
Physikberechnungen kann man nicht immer nur anhand von Objekten bewerten. Wie du bei Flatout zum Beispiel feststellen wirst treten dort viele Penetrationsfehler auf, wo sich Objekte ineinander verhaken oder Objekte bleiben einfach in der Luft stehen, obwohl das darunterstehende Objekt schon entfernt wurde.

Das liegt an den ungenauen Berechnungen die dort durchgeführt werden müssen um, so viele Objekte berechnen zu können. Auch die Anzahl der Berechnungen pro Sekunde werden heut zu Tage bei Spielen sehr niedrig angesetzt, wodurch auch solche Fehler auftreten können.

Eine wirklich gute Physikberechnung sollte ca. mit doppelter Framerate wie die Grafikdarstellung ablaufen um alle Kollisionen korrekt erkennen zu können.

Wenn man also ein Spiel mit 30 fps spielt, sollten alle Objekte schon 60 mal die Sekunde berechnet werden und wenn man dann noch die Rechengenauigkeit erhöht merkt man schnell, dass dies auf einmal ein vielfaches mehr an Rechenleistung kostet.

Es geht also nicht immer nur um die Anzahl von Objekten, sondern auch um die Berechnungsqualität und auch um die komplexität von Objekten. Bretter, Fässer und andere simple geometrische Formen, wie sie auch hauptsächlich in Flatout vorkommen, sind um einiges einfacher zu berechnen, als komplexe Gittermodelle.
 
Zuletzt bearbeitet:
ein grund mehr das die nächste karte eine nvidia karte wird
 
alex22 schrieb:
Bisher ist das doch nur ein Gerücht!

ComputerBase schrieb:
Dies kündigte nVidias PR-Chef Michael Hara in einem demnächst erscheinenden Interview mit den Kollegen von Golem.de an und sorgte so für Klarheit, denn in den vergangenen Tagen machten einige Gerüchte diesbezüglich die Runde.

zehn Zeichen
 
und wer weis, was ATI noch so reißt, auch wenn es dazu noch keine gerüchte gibt.

wobei man ja sagen muss: PR ist immer ein bischen manipulation!
 
Nicht nur ein bisschen. PR hat wohl den Zweck zur Manipulation. ;)

mFg tAk
 
le_chef schrieb:
ein grund mehr das die nächste karte eine nvidia karte wird

Aufgrund von Marketinggebrabbel wuerde ich persoenlich noch keine Entscheidung treffen!

R600 oder G80?!.........Abwarten und Tee trinken!:cool_alt:

Ich persoenlich bin ganz entspannt und warte die ersten Benches ab.

Und da die Releasepreise auch etwas hoch sein sollen
(8800 GT fuer 499$ also 390 Euro + 19% MwSt. = mind. also 460 Euro), muss ich wohl noch den einen oder anderen Tee mehr schluerfen.

Wie sich jetzt genau die Physikbeschleunigung beim G80 bemerkbar macht und was genau der R600 dann wirklich kann!.......schaun mer mal!

Ich freue mich schon auf die ersten interessanten, ausfuehrlichen und aussagekraeftigen Tests!

Gruss aus China
 
Wie du bei Flatout zum Beispiel feststellen wirst treten dort viele Penetrationsfehler auf, wo sich Objekte ineinander verhaken oder Objekte bleiben einfach in der Luft stehen, obwohl das darunterstehende Objekt schon entfernt wurde.

Da hast du recht... aber ganz ehrlich das rechtfertigt für mich keine 300€ physik karte (wenn das spiel sie denn unterstützen würde) da müsst schon mehr bei rumkommen als ne etwas genauere berechnung...

das mit DX10 klingt intresant, von DX10 hab ich eh noch nix gesehen oder gehört was das überhaupt neues können soll... :rolleyes:
 
Bleibt abzuwarten was daraus wirklich wird. Die PhysX Karte jedenfalls
bringt momentan überhaupt keine Punkte. Weder im FPS Bereich noch
sonst wo in aktuellen Systemen. Tests haben schliesslich auch ergeben das die PhysX Karte momentan nur rausgeworfenes Geld ist.
Wenn ihr euch Cell Factor anschaut, so läuft dieses auf PhysX Systemen genausoschnell wie in Systemen ohne Physik Karte.

Und mal ehrlich, wem sind dafür noch 250 Euro wert?
(mal abgesehen von den Enthusiasten die meinen immer das neueste verbauen zu müssen)

Die Zeit wird sicher noch kommen aber bis dahin is noch ne Weile.
 
ja bei ati wird das doch wohl bald mit 3 pcie steckpletzen sein cf und ne physik karte
 
@96) phr

Da hasst du sicherlich Recht. Aber wenn man wirklich realistische SPiele programmieren will(wo wirklich viele bewegliche Objekte vorhanden sind und Physik richtit integriert wurde) wird es keine Frage mehr sein, ob man sich die dazubaut, um extra Effeckte zu bekommen, nein, wenn man dies erreicht hat, wird ein Physikbeschleuniger standart sein, es mss nur besser gefördert werden.
 
ZeroBANG schrieb:
Da hast du recht... aber ganz ehrlich das rechtfertigt für mich keine 300€ physik karte (wenn das spiel sie denn unterstützen würde) da müsst schon mehr bei rumkommen als ne etwas genauere berechnung...
Es sollte auch keine Rechtfertigung sein. Ich sehe das genauso wie du. Den Preis (liegt im Übrigen unter 220 EUR) ist dieser Vorteil sicherlich nicht wert, aber es zeigt natürlich, dass man für eine vernünftige Physikengine mehr als die Rechenpower einer CPU benötigt.

das mit DX10 klingt intresant, von DX10 hab ich eh noch nix gesehen oder gehört was das überhaupt neues können soll... :rolleyes:
Ein großer vorteil neben der hohen Performance von DX10 ist die Möglichkeit die GPU für viele verschiedenen Dinge nutzen zu können, und nicht nur für die Grafik. Vorstellbar wäre zum Beispiel die KI oder echter 3D-Sound, der tatsächlich von den Gittermodellen abprallt.

Tonsignale sind ja nichts anderes als Lichtstrahlen. Die Farben des Lichts entsprechen dann den Frequenzen des Tonsignals. Das was bisher eine Lichtquelle war, ist jetzt eine Geräuschquelle und über Shaderprogramme lassen sich die unterschiedlichsten Soundeffekte realisieren, genauso wie es auch mit grafischen Effekten möglich ist.

Wenn das alles berechnet ist muss man das errechnete Signal nur noch zur Soundkarte schicken. So etwas ging bisher nicht.

Das ist nur ein Beispiel wofür man die GPU auch nutzen könnte. Du kannst sie praktisch als Koprozessor ansehen, der die CPU an den verschiedensten Stellen unterstützen kann.


Man darf gespannt sein, was die Programmierer daraus machen.



phr33k schrieb:
Bleibt abzuwarten was daraus wirklich wird. Die PhysX Karte jedenfalls
bringt momentan überhaupt keine Punkte. Weder im FPS Bereich noch
sonst wo in aktuellen Systemen. Tests haben schliesslich auch ergeben das die PhysX Karte momentan nur rausgeworfenes Geld ist.
Wenn ihr euch Cell Factor anschaut, so läuft dieses auf PhysX Systemen genausoschnell wie in Systemen ohne Physik Karte.
Klar, ist der PhysX im Moment nicht sehr sinnvoll, da er von keinem Spiel wirklich unterstützt wird, aber grundsätzlich ist die Idee einer hardwarebeschleunigten Physik nicht schlecht.
Cellfactor läuft im Übrigen nicht genauso schnell. Wenn man CF im Softwaremodus laufen lässt fallen viele der Physikberechnungen weg. Objekte brechen nicht auseinander, es gibt keine Flüssigkeiten und so weiter. Aktivierst du diese Berechnungen siehts im Softwaremodus alt aus. Der PhysX-Chip ist also schon notwendig.

Wie dem auch sei. Ich nehme auch nicht an, dass der PhysX einen großen Erfolg haben wird, aber eine hardwarebeschleunigte Physik wird sich zumindest im Graka-Sektor recht schnell durchsetzen.

Crytek macht mit Crysis ja schon den ersten Schritt. Die berechnen auch Teile der Physik auf der Graka.
 
heißt das ich habe dann statt voller cpu-last beim spielen nur halbe oder gar weniger cpu-last? weil die vga fast alles berechnet und die cpu nur noch sound und so krams zu tun hat?
 
tommy_v6 schrieb:
heißt das ich habe dann statt voller cpu-last beim spielen nur halbe oder gar weniger cpu-last? weil die vga fast alles berechnet und die cpu nur noch sound und so krams zu tun hat?
Das hängt natürlich vom Programmierer ab, wie die Last verteilt wird.

Ich denke aber, dass man so etwas in den Optionen einstellen kann. Zum Beispiel kann man die Physik auf Grakas hinzuschalten oder nicht. Auf CPU-Ebene gibt's dann halt weniger Effekte.

Zu viel CPU-Leistung wird man auf jedenfall nie haben. Besonders für die KI kann man beliebig viel CPU-Leistung verbraten. Da fällt immer was an, was Rechenleistung benötigt.

Ansonsten hast du aber recht. Viele Dinge die bisher auf der CPU durchgeführt wurden sollen in zukunft auf die Graka ausgelagert werden. Zum Beispiel auch die Animationslogik der Charaktere. Dann findet Animation und Rendering auf der gleichen Ebene statt.
 
Zurück
Oben