News Nvidia führt GeForce PhysX ein

Ich reg mich ja gar nicht so auf, hab mich nur in einen theatralischen Schreibfluss fallen lassen. :schaf: Ist die allgemeine Latschenballstimmung :cheerlead:
 
masterbratak schrieb:
das hört sich von dir so leichtgesagt an. da würde ich gerne verlässliche quellen dazu haben. wenn es denn wirklich so ist, dann wäre der gewinn für physx sicher!
Das kommt natürlich immer darauf an, was man mit "sehr komplex" meint.
Ich meine damit Berechnungen, wie sie heute in den top Spielen, wie zum Beispiel Crysis, vorkommen. Wenn man diese Berechnungen auf der Graka durchführen würde, dann würde man sicherlich gar nichts davon mitkriegen. Wahrscheinlich wird die Framerate aufgrund der CPU Entlastung sogar noch ansteigen.


Eine Quelle kann ich dir im Moment nicht geben, aber man braucht ja nur mal die Partikeldemos von nVidia und Intel vergleichen.
Mit der kompletten Rechenleistung, eines Prozessors der nächsten Generation die erst Ende desJahres erscheint kann man eine 60.000 Partikeldemo mit 15-20 fps simulieren und Intel ist sogar noch super stolz darauf. Verwendet man die komplette Rechenleistung einer GTX 280 für so eine Demo erreicht man 600 fps.
Natürlich sind das nur Demos, die nichts mit Spielen zu tun haben, aber es zeigt doch schon einmal sehr gut wie stark die GPU der CPU in diesem Feld überlegen ist.

Ein weiterer Beweis dafür ist ja auch Sebastians Test. Ein E4300 @ 3,15 GHz schafft 7,5 Operationen pro Sekunde, während eine 8800 GT 93,5 Operationen pro Sekunde schafft.

Wenn man jetzt bedenkt, das Spiele nur einen Bruchteil der CPU Leistung tatsächlich für die Physikberechnungen verwenden, dann kann man sich vorstellen, wie gering die Belastung für die GPU ausfallen wird.

Nehmen wir mal an 20% der CPU Leistung wird momentan bei einem Spiel für die Physikberechnung verballert. Laut den Messergebnissen von Sebastian ist die 8800 GT ca. 13 mal effektiver, als die CPU was also zur Folge hat, dass die GPU bei den gleichen Berechnungen nur 1,5% ihrer Leistung aufbringen müsste. (Nur mal so als ganz grobe Milchmädchenrechnung)

Natürlich werden in Zukunft aufwändigere Physiksimulationen mehr Rechenleistung der GPU in Anspruch nehmen, aber ich denke mal, dass man das auch alles in den Spieleoptionen einstellen kann. Das ist ja bei Grafik-Settings momentan nicht anders.
Wer großen Wert auf eine gute Physik legt stellt die Settings auf High und dafür einige Grafik-Features herunter und wer mehr Wert auf Grafik legt, der muss halt etwas auf Physikeffekte verzichten. Kann ja jeder machen, wie er will.
 
Zuletzt bearbeitet von einem Moderator: (Quote-Tag korrigiert)
Ich verstehe AmD in diesem Bereich nicht warum sie nicht auch auf Phisx setzten
Intel setzt auf Havok da dies nur die cpu anspricht jetzt unterstützt amd das noch obwohl sie wissen das ihre Phenoms den dou´s bzw quad´s haus hoch unter legen sind!
Ati /amd haben doch auch gute Grafikkarten die diese Phisx Technik nutzen könnten so hätten sie wieder ein Verkaufsagument mehr

So blebt für die alles Gleich!
 
WoW, ging ja ganz schön schnell mit der Integration der PhysX bei nvidia
 
noxon schrieb:
...
Ein weiterer Beweis dafür ist ja auch Sebastians Test. Ein E4300 @ 3,15 GHz schafft 7,5 Operationen pro Sekunde, während eine 8800 GT 93,5 Operationen pro Sekunde schafft.
...
Nehmen wir mal an 20% der CPU Leistung wird momentan bei einem Spiel für die Physikberechnung verballert. Laut den Messergebnissen von Sebastian ist die 8800 GT ca. 13 mal effektiver, als die CPU was also zur Folge hat, dass die GPU bei den gleichen Berechnungen nur 1,5% ihrer Leistung aufbringen müsste. (Nur mal so als ganz grobe Milchmädchenrechnung)
...

Mal die Milchmädchenrechnung aufdröseln:
20% von 7,5Op/s => 7,5 Op/s * 0.2 = 1,5 Op/s
1,5 Op/s / 93,5 Op/s * 100 = 1,6024%

Also braucht so etwas bei angenommenen 20% CPU Last nur ca. 1,6% Last auf der GPU einer 8800GT

Selbst bei einer Last von 50% auf der CPU würde gemäß dieser Rechnung die GPU nur mit 4,01% belastet werden...

Andy
 
Zuletzt bearbeitet:
Und was willst du mir damit sagen? Ist die Rechnung falsch?

Wenn du die Berechnungen auf der Graka durchführst, die auf der CPU 50% der Rechenleistung gefordert hätten, dann nehmen die doch nur ~4% der Leistung der GPU ein oder sehe ich das falsch?
 
Zuletzt bearbeitet:
@Johannes7894561: noch ist ja gar nich raus, ob ati nicht auch physix unterstützen wird. die umsetzung dauert nunmal auch seine zeit. die hd4k wurde ja auch nicht an einem tag entwickelt und vllt arbeitet man bei ati schon an der umsetzung. vllt will ati aber wirklich nicht auf den zug aufspringen und baut darauf, dass physix sich nicht durchsetzen wird... das werden wir wohl erst in einigen monaten erfahren. ich könnte mir aber schon gut vorstellen dass ati sich das nicht entgehen lässt, zumal die nutzung kostenlos ist und ati ja zur zeit sehr auf fortschritt und neue technologien setzt.
 
noxon schrieb:
Und was willst du mir damit sagen? Ist die Rechnung falsch?

Wenn du die Berechnungen auf der Graka durchführst, die auf der CPU 50% der Rechenleistung gefordert hätten, dann nehmen die doch nur ~4% der Leistung der GPU ein oder sehe ich das falsch?

Nein, ich habe Deine "Milchmädchen-"Rechnung nur noch einmal mit den Rechenschritten im Einzelnen aufgeführt und damit auch bestätigt.
Ist gar nicht negativ gemeint gewesen, wollte selbst nur wissen, wie Du auf den Wert gekommen bist und dachte so können auch Andre es noch einmal nachvollziehen. Das ist Alles. :)
Und ja, vollkommen richtig, dass eine CPU-Last von 50% bei der GPU nur eine Last von grad mal 4% ausmachen.

Ich stehe genauso wie Du auf der Seite derer, die sich mehr Physik auf der GPU wünschen und dafür lieber ausgeklügelte KI auf der CPU.
Ich frage mich z.B. wann die erste Renn-/Flugsimulation mit auf der GPU berechneten Physik erscheint.

Andy
 
Zuletzt bearbeitet:
Freue mich, dass ich bald meine CPU etwas entlasten kann. Die ist nämlich bei meinem System der "Flaschenhals".
 
Ist ja schön und gut, aber es gibt kaum Spiele dafür. Und der Grund warum das in 3DMark drin ist, ist dass die schon immer von Nvidia bestochen werden.
 
Spiele, die richtiig gut davon Gebrauch machen, können ja auch erst dafür kommen, wenn die Schnittstelle mit Hardware-Fähigkeiten entgültig da ist - die Treiber sind ja noch nicht offiziell bei Nvidia. Es gibt ja auch noch keine Playstation-4-Spiele. ;)
 
@G-Sas das Stimmt nicht Alle spiele mit unreal engine 3 laufen mit Physx

Außerdem hat Nvidia nicht die 3d mark entwickler bestochen Steht ja sogar noch Ati drauf beim 06´er zuminest.Außerdem hat zu der Zeit Physx noch Ageia gehört!
 
Die Physik X geht bei Cellfactor Nicht
was muss ich machen das es geht ??

MFG master_nick_123
 
Zuletzt bearbeitet:
noxon schrieb:
Das kommt natürlich immer darauf an, was man mit "sehr komplex" meint.
Ich meine damit Berechnungen, wie sie heute in den top Spielen, wie zum Beispiel Crysis, vorkommen. Wenn man diese Berechnungen auf der Graka durchführen würde, dann würde man sicherlich gar nichts davon mitkriegen. Wahrscheinlich wird die Framerate aufgrund der CPU Entlastung sogar noch ansteigen.


Eine Quelle kann ich dir im Moment nicht geben, aber man braucht ja nur mal die Partikeldemos von nVidia und Intel vergleichen.
Mit der kompletten Rechenleistung, eines Prozessors der nächsten Generation die erst Ende desJahres erscheint kann man eine 60.000 Partikeldemo mit 15-20 fps simulieren und Intel ist sogar noch super stolz darauf. Verwendet man die komplette Rechenleistung einer GTX 280 für so eine Demo erreicht man 600 fps.
Natürlich sind das nur Demos, die nichts mit Spielen zu tun haben, aber es zeigt doch schon einmal sehr gut wie stark die GPU der CPU in diesem Feld überlegen ist.

Ein weiterer Beweis dafür ist ja auch Sebastians Test. Ein E4300 @ 3,15 GHz schafft 7,5 Operationen pro Sekunde, während eine 8800 GT 93,5 Operationen pro Sekunde schafft.

Wenn man jetzt bedenkt, das Spiele nur einen Bruchteil der CPU Leistung tatsächlich für die Physikberechnungen verwenden, dann kann man sich vorstellen, wie gering die Belastung für die GPU ausfallen wird.

Nehmen wir mal an 20% der CPU Leistung wird momentan bei einem Spiel für die Physikberechnung verballert. Laut den Messergebnissen von Sebastian ist die 8800 GT ca. 13 mal effektiver, als die CPU was also zur Folge hat, dass die GPU bei den gleichen Berechnungen nur 1,5% ihrer Leistung aufbringen müsste. (Nur mal so als ganz grobe Milchmädchenrechnung)

Natürlich werden in Zukunft aufwändigere Physiksimulationen mehr Rechenleistung der GPU in Anspruch nehmen, aber ich denke mal, dass man das auch alles in den Spieleoptionen einstellen kann. Das ist ja bei Grafik-Settings momentan nicht anders.
Wer großen Wert auf eine gute Physik legt stellt die Settings auf High und dafür einige Grafik-Features herunter und wer mehr Wert auf Grafik legt, der muss halt etwas auf Physikeffekte verzichten. Kann ja jeder machen, wie er will.

ich bin jetzt von physx voll überzeugt. habe jedoch die befürchtung das die physikelemente so programmiert werden, das sie mehr von der gpu abverlangen damit die kunden somit öfter gpus kaufen. ist schon eigentlich mehr über atis 4000 bekannt über die physx unterstützung? wäre nämlich sehr gut wenn ati das auch implementieren würde.
 
Hmm, hatte jetzt schon verschiedene Mirrors probiert, aber egal von wo ich den Treiber herunterlade, beim Ausführen der entpackten EXE gibts immer eine Fehlermeldung, die Datei sei beschädigt. Gibts irgendwo was mit Checksum?

100944
 
Johannes7894561 schrieb:
@G-Sas das Stimmt nicht Alle spiele mit unreal engine 3 laufen mit Physx

Außerdem hat Nvidia nicht die 3d mark entwickler bestochen Steht ja sogar noch Ati drauf beim 06´er zuminest.Außerdem hat zu der Zeit Physx noch Ageia gehört!

Ist auch nicht ganz richtig, Unreal 3 Games nutzen nicht automatisch PhysX
die Spieleentwickler entscheiden selber welche Physik-Engine zum Einsatz kommt

siehe Bioshock und Stranglehold - beide mit der Havok-Engine
 
Andy_K schrieb:
Nein, ich habe Deine "Milchmädchen-"Rechnung nur noch einmal mit den Rechenschritten im Einzelnen aufgeführt und damit auch bestätigt.
Ist gar nicht negativ gemeint gewesen, wollte selbst nur wissen, wie Du auf den Wert gekommen bist und dachte so können auch Andre es noch einmal nachvollziehen.
Ach so. Ich dachte schon ich hätte nen logischen Fehler gemacht. ;)


masterbratak schrieb:
ist schon eigentlich mehr über atis 4000 bekannt über die physx unterstützung? wäre nämlich sehr gut wenn ati das auch implementieren würde.
Leider noch nicht. Ich hoffe, das ATi bald mit ihren Plänen für den hardwarebeschleunigten Physiksupport heraus rückt. Eine 4870 X2 würde ich nämlich schon gerne einer GTX 280 vorziehen, aber dazu müsste ich auch wissen, was ATi so in Zukunft in Sachen Physik geplant hat.
 
So langsam leuchtet mir auch ein, wieso AMD sich für Havok (Intel) entschieden hat:
  • Die Stärke des Gt200 liegt in GPGPU
  • Je mehr Anwendungen dies nutzen, desto höher fällt der Unterschied zu den ATI Karten aus (siehe Unreal-Engine)
  • Um das Szenario möglichst zu verhindern unterstützt AMD gemeinsam mit Intel Havok, so dass der GT200 seine Stärke in nicht ganz soviel Spielen einsetzen kann
 
Zurück
Oben