News Nvidia führt GeForce PhysX ein

immerhinn ist (zumindest für mich) die mutter der physik in spielen noch immer Half Life 2 bzw. HL2 Deathmatch... die haben wenigstens den den Kopf excellente Physik und Grafik für jederman spielbar zu machen... Und kein Spiel nutzt Physikeffekte dermaßen wie HL2 Deathmatch... da basiert das halbe spiel ja darauf jemanden mit nem Waschbecken zu zermalmen ^^

edit: hl2 benutzt außerdem Havok
 
MasterFX schrieb:
Viel interessanter wäre doch auch noch ein Benchmark mit echter PhysX-Karte. Dann würde man mal sehen, wieviel PhysX-Leistung die Geforce im Gegensatz zur echten PhysX-Karte hat. Glaub kaum, dass das voll implementiert ist. Irgendwo musste die PhysX-Karte ja auch die Leistung verbraten haben. DIe können ja nicht im Nichts der Grafikkarte verschwinden


Laut einem CB Test brachte eine PhysiX Karte ca 25% mehr beim Vanatage CPU Test 2, bei der CUDA Variante sind es bei mir weit über 100% mehr.
 
Ist ja alles schön und gut, aber so wie's auf dem PC-Spiele-Markt aussieht lohnt das alles eh nicht.
Kommt doch kaum noch was gescheites raus für das es sich lohnt mal nen neuen Rechner zu holen...
 
Ich denke das sich Physik Effekte ressourcenschonender in der CPU berechnen lassen, zumindest wenn man einen QuadCore hat. Wofür sollen denn sonst die ganzen CPU Kerne gut sein, wenn's sich um's Gaming dreht. Wie das aussehen kann hat Intel schon gezeigt, mit ihrem Spiel Allan Wake. Wir werden sehen ob Havok oder PhysiX das Rennen macht, ich tippe mal auf ersteres. Intel hat die macht Havok ohne Ende zu pushen, und AMD/ATI sitzt auch mit im Boot.
 
bazooExcalibur schrieb:
Deswegen dan auch 2 GTX 280.


Dann Reicht´s auch für die P.Berechnung.
Und wie lang hast Du die dann gehabt? 2, 3, 4 Monate?

Ansonsten muss ich sagen, dass ich dann die 260 lohnen würde, die 280 wäre dann wohl immer noch zu teuer, zumindest am Anfang!
 
Zuletzt bearbeitet:
Bis die nächsten kommen.

30 Zoll braucht halt viel Kraft 2560 x 1600

Die Spieleanforderungen steigen ja auch.

Ist halt so im PC Bereich.

Der Markt ist Schnelllebig oder wird immer schneller.

Man sieht ja wie viele Karten jede Paar Monate Erscheinen.
 
So mal downloaden und dann schauen was unter UT3 geht. :D
Werde dann mal berichten.
 
dh. folglich, das ich nicht nur Grafisch-Relevante Daten über den Bus jage, nein es kommen jetzt auch noch Physik-Daten dazu.

Nachden Benchmarks zu Urteilen dürfte es reichlich potential, das dem Kunden "verschwiegen" wird, auf diesen Karten geben, wenn alleine durch einen Treiber die Performance um bis zu 300% gesteigert werden kann.

Ergo -> es liegen knapp 3/4 der Karte auf der Faulen haut???

Irgendwie erschliesst sich mir nicht ganz wo auf einmal diese Performance "herkommen" soll.
Einerseits erfreulich, natürlich, andererseits seeeeehr fragwürdig ...

greez
 
Sollten die Programmierer mal Spiele Richtig Optimieren.

Braucht man auch nicht Ewig neue Karten.

Fear
Ut 3

Schau dir mal an wie Flüssig die Spiele Laufen. Im Gegensatz zu dem
Besch Crysis.

Ich Denke Crysis wurde Absichtlich so Beschissen Programmiert um den Verkauf von Starken Grafikarten zu Fördern.
Da her auch die Zusammen arbeit mit Nvidia.
 
Zuletzt bearbeitet:
Übrigens gab es auch mal das Projekt Havok FX dadurch konnte man auf
NVidia Karten auch die Havok-Physik beschleunigen.

Nachdem Intel Havok aufgekauft hat wurde das Projekt natürlich eingestampft,
weil Intel nicht über leistungsfähige Grafikkarten verfügt.
 
Ich hab mal auf die Schnelle den 3DMark Vantage mit einer GeForce 8800 GT getestet. Hierzu muss lediglich die .inf-Datei des GeForce 177.39 etwas erweitert werden.

Testsystem:


  • CPU: Intel Core 2 Duo E4300 @ 3,15 GHz
  • RAM: 2 GB DDR2-700
  • Mainboard: abit AW9D-MAX (Intel i975X)
  • Grafikkarte: EVGA GeForce 8800 GT 512 MB (600/1500/900 MHz)
Treiberversionen:

  1. GeForce 175.16 / PhysX 8.04.25
  2. GeForce 177.39 / PhysX 8.06.12

Ergebnisse:


  1. P4462 3DMarks (5313 CPU / 4236 Graphics)
  2. P6068 3DMarks (23240 CPU / 4868 Graphics)
Wie man den folgenden Balkendiagrammen aus Futuremarks Online Result Browser entnehmen kann, bringt der GeFroce 177.39 insgesamt eine verbesserte Performance mit sich, aber das ist nichts im Vergleich zu den Werten, die im CPU Test 2 erreicht werden, welche sich um den Faktor 10 unterscheiden, je nach PhysX-Support.

3dmark-vantage-png.100789
 

Anhänge

  • 3DMark Vantage.png
    3DMark Vantage.png
    96,8 KB · Aufrufe: 5.846
Zuletzt bearbeitet:
Da bin ich mal gespannt wie das bei mir zu hause ausieht.
Warum werden erstmal nur die neuen mit treibern versorgt?
Hält Nvidia nichts von sein Kunden die z.b. eine GF 8 haben?
 
Ja was wohl?! HD4850. Liegt doch auf der Hand. Wer brauch noch G92 Krüppel? Sebastians Freizeitbeschäftigung ändert doch nix daran.
 
weil vllt eins nachm andren programiert wird....kommt ja in paar tagen
cpu score von irgendwas um die 5k auf 23k, ob sich der unterschied auch so stark ingame auswirkt? also cpu aufeinmal um 4/5 seiner last befreit^^
 
Zuletzt bearbeitet:
Hab ich das jetzt richtig verstanden ??
Das ein Treiber kommt mit dem man Physik X spielen kann und das noch kostenlos ??
Ich habe eine XFX GF8800GTS 512MB geht das auch mit der Karte ??

MFG master_nick_123
 
Ich sags zwar ungern aber der Vantage(synthetischer Benchmark) ist ein gutes Mittel um die Leistung einer GT 200 mit PhysX zu testen. Die hohen Punkte der GTX 280 kommen daher nicht von ungefähr sondern zeigen bereits schon wie die Leistung sein wird wenn PhysX in einem Spiel implementiert ist.
https://www.computerbase.de/2008-06/test-nvidia-geforce-gtx-280-sli/13/#abschnitt_3dmark_vantage

Stimmt schon NV wird sich schwer tun weil auch AMD lieber Havok nutzen möchte. Allerdings währe es auch nicht gut für AMD/ATI wenn sie die kostenlose PhysX Unterstützung einfach nicht nutzten. Denn so wie es aussieht ist die CPU sehr viel langsamer als die GPU bei Physik und das würde NV dann wieder einen Vorteil geben. Da NV viele Spiele unterstützt und ihr Logo drauf haben, gehe ich schon davon aus das sie ihr PhysX breit unterstützten werden...
 
Zurück
Oben