News PhysX-Karte von Asus mit 128 MB Speicher

@4 Genau
 
dahum schrieb:
Kann mir mal einer ernsthaft den Sinn von Physikkarten erklären? Es gibt ja nur zwei Möglichkeiten: entweder sie berechnet Physik, die es schon gibt, etwas genauer. Den Unterschied wird man aber kaum merken. Oder sie berechnet mehr physikalische Effekte. Dann müsste aber auch die Grafikkarte viel mehr leisten, da mehr Objekte dargestellt, korrekt beleuchtet, Schatten dargestellt werden müssen etc.

Naja. Sie kann beides. Kommt halt drauf an, worauf du wert legst. Die erhöhte Genauigkeit wirst du eventuell daran bemerken, dass du nicht mehr so viele Penetrations hast. Sprich Überschneidungen von Objekten, die durch die Rechenungenauigkeit entstanden sind.
Die Folge kennt man ja aus vielen Spielen, dass die Objekte wie blöd rumzucken und nicht zum erliegen kommen.

Mittlerweile reduzieren viele Spieleentwickler die Genauigkeit meiner Meinung nach schon etwas zu weit runter, bloß um noch mal 10 Objekte mehr darstellen zu können.


Zur Mehrbelastung der Graka hast du natürlich recht. Das ist halt ein Preis, den man zahlen muss, wenn man detailiertere Physik haben will. Da kann auch kein anderer Chip die GPU entlasten.

Allerdings wird es mit DirectX 10 eine erhebliche Verbesserung im Objekthandling geben, wodurch sie bis zu 40% des Overheads einsparen lässt, den DirectX 9 heut zu Tage erzeugt.
Dieser große Overhead ist es im Moment, der die Objektzahl auf dem Schirm recht stark eingerenzt. Will man die CPU nicht total auslasten, wird man nicht mehr als 500 Objekte gleichzeitig verarbeiten können. Rein logisch gesehen. Ich spreche jetzt noch nicht einmal von der grafischen Darstellung.

Es ist also wichtig die CPU Leistung nicht für Physikberechnungen zu verballern, sondern sie lieber für's Spielemanagement zu verwenden um zum Beispiel mehr Objekte darstellen zu können.


DirectX 10 Karten werde zudem über unified shader verfügen, was deren Leistung auch nochmal um einiges erhöht, da sie viel effizienter abeiten als die heutigen getrennten Shader. Was das SM4 an Performancesteigerung bringt kann man noch nicht wirklich sagen.

In Zukunft werden wir jedenfalls genug CPU und GPU Power haben um auch eine Vielzahl von Objekten mit Schatten und allem Drum und Dran auf dem Schirm darstellen zu können.

Das es die PPU jetzt schon gibt ist also gar kein schlechter Zeitpunkt. Sie benötigt jetzt ein oder zwei Jahre bis sie genügend Akzeptanz gefunden hat und wenn es dann soweit ist, dann steht auch genügend Rechenbower zur Verfügung um die Karte voll ausnutzen zu können.
 
Die Berechnung über die CPU ist um ein Vielfaches ineffizienter. ;)
 
Eine unnötige Diskussion hier.

Wer das Dingens (noch) nicht haben möchte, der braucht es doch auch nicht zu kaufen....

Ich weiß schließlich auch noch nicht, ob ich das Blue-Ray- oder das HD-DVD-Gedöns bzw. HD-TV im Allgemeinen (mit all seinen Kopierschutzmechanismen) haben möchte...
 
Wäre es nicht geschickter so einen Chip auf eine Graka zu hauen?
 
The_Jackal schrieb:
Wäre es nicht geschickter so einen Chip auf eine Graka zu hauen?

Nö. Nicht unbedingt.

Dann müsstest du dir ja immer wieder eine neue PPU kaufen, wenn du dir eine neue Grafikkarte kaufst. Die PhysX-Karte hat einen längeren Lebenszyklus, als eine Graka. Du möchtest dir ja auch nicht immer eine neue Audigy Karte kaufen, wenn du mal wieder ne neue Graka brauchst. Meine Audigy habe ich jetzt bereits seit 5 Jahren.

Wäre die Audigy jedesmal auf der Graka integriert gewesen hätte ich ein und den selben Chip bereits drei mal bezahlen müssen. Ähnlich verhält es sich mit der PPU. Die brauchst du bei weitem nicht so häufig updaten, wie die GPU. Die PPU macht die Graka nur unnötig teuer. Viele werden nciht zu solchen Grafikkarten greifen, weil die meisten überhupt keine PPU wollen.

Man könnte das allerdings machen, wenn die PPU auf der Graka gesockelt wäre und man die auf die neue Graka mitnehmen kann, aber das ist auch nicht viel komfortabler, als die extra Karte im PC.

Irgendwann in ferner Zukunft kann man aber darüber nachdenken die Chips irgendwie zu vereinen. Der Produktionszyklus der PhysX-Karten beschleunigt sich eventuell noch und der Bedarf an PPUs dürfte auch wachsen, sodass es irgendwann zum Standard Gamer-PC gehört.

Allerdings wird es dann vielleicht auch mehrere Hersteller von PPUs geben und es wird auch verschiedene Versionen der PPU geben. Das würde ja zu unzähligen GPU/PPU-Kombinationen führen, was zwangläufig auf Kompromisse hinausläuft, die der Käufer einzugehen hat.

Bei getrennten Karten kann er sich entscheiden, ob er eine High-End Graka haben will und eine Low-Segment PPU oder umgekehrt.
 
Zuletzt bearbeitet:
Man bräuchte nicht die zusätzliche Infrarstruktur eine ganzen Karte mit PCB usw. und auch der Steckplatz wäre frei, was bei Barebones oder kleinen Boards (µATX) wohl sehr wichtig wäre.
 
Wieder ein "Grund" mehr, für Duke Nukem 4 Ever das Spiel neu "zu überarbeiten" :D
 
Wer weiß, ob das überhaupt so ohne weiteres machbar ist. Das ist ja leicher gesagt als getan. Außerdem gibt es von ATi und nVidia vorerst wohl keine Anstrengungen das zu machen. Die haben mit ihrem Physics-On-GPU erst einmal genug zu tun.


Milchkanne schrieb:
Wieder ein "Grund" mehr, für Duke Nukem 4 Ever das Spiel neu "zu überarbeiten" :D

Hehe. Genau daran hatte ich auch schon gedacht.
 
@Alle die für die Karte sind:

Hört auf für die Karte zu argumentieren, das wollen die Leute hier nicht hören... dann könnt ihr gleich mit eurer Hand reden.


@Alle die gegen die Karte sind:

Kauft sie nicht und lasst uns in ruhe.
 
noxon schrieb:
DirectX 10 Karten werde zudem über unified shader verfügen,

Das ist Spekulation, bei NVidia deutet alles auf eine getrennte VS/PS Architektur hin.

noxon schrieb:
was deren Leistung auch nochmal um einiges erhöht, da sie viel effizienter abeiten als die heutigen getrennten Shader. Was das SM4 an Performancesteigerung bringt kann man noch nicht wirklich sagen.

Spekulation. Vermutlich wird die Leistung sogar ersteinmal zurueckgehen, da der Verwaltungsaufwand fuer unified VS/PS wesentlich hoeher ist als fuer getrennte VS/PS.
 
kisser schrieb:
Das ist Spekulation, bei NVidia deutet alles auf eine getrennte VS/PS Architektur hin.

OK. Im Moment ist alles nur Spekulation. Mal hört man dies, mal hört man das.

Ich bin eigentlich ein ATi-Fanboy und gehe hauptsächlich vom R600 aus. Dort ist man sich ja eigentlich schon recht sicher, dass es unified shader werden. Schließlich haben sie dank der Xbox360 auch schon Erfahrungen damit gemacht.


Spekulation. Vermutlich wird die Leistung sogar ersteinmal zurueckgehen, da der Verwaltungsaufwand fuer unified VS/PS wesentlich hoeher ist als fuer getrennte VS/PS.


Das ist aber auch Spekulation, oder nicht? ;)

Genaueres kann man halt nicht sagen, aber Fakt ist doch, dass die US viel effizienter ausgenutzt werden als getrennte VS und PS. Wie oft passiert es, dass die VS nur dumm vor sich rumidlen, weil die PS nicht hinterherkommen?
 
@4: und Quad Preise! will gar nicht wissen wie teuer der ganze scheiß alles zusammen wird...
 
man kann noch so gute Hardware in seinem PC verbaut haben...

wenn die Programme, Spiele, etc. schlecht programmiert sind und diese nicht richtig nutzen, bringts einem gar nichts....
 
Naja, jetzt geht der Spaß also auch langsam los! Bin mal auf die erste SLI-Variante gespannt!

Vielleicht werden in Zukunft einfach mehrere PC´s zusammengeschaltet.

Dann braucht man 4 Pcs für die Grafik, 4 für die Physik usw. ;-)!
 
MC's bitte lies doch mal die Komments über dir. Dann ergibt sich deine These automatisch.
 
Burner87 schrieb:
Ich sehe schon das System der Zukunft vor mir
Quad Core
Quad SLI
PhysX SLI
na dann Prost!!!!!!!!!!!!

Fehlt nur noch ne Soundkarte @ SLI und sonstige Karten wie TV- und ISDN-Karten. Bei dem Sys braucht man dann mindestens ein 1-kW-Netzteil und ein Mainboard mit 10 PCI-Slots.
Wo soll denn das noch hinführen? Liebe Entwickler, programmiert doch lieber gleich vernünftige Engines, die alles beinhalten, und verschont die Konsumenten mit euren Kaufzwängen wie z.B. PhysX.


mfg, Phlupp
 
Shadolous schrieb:
@ Nightmare25
Arzt kostet 10€ ;) *keine ernste Kritik am post :)*
für Nightmare25 zurück Klugscheiß:
er spielt auf die Pläne der Bundesregierung an für jeden Arztbeuch 5 € zu zahlen und nicht nur wie jetzt 10 € pro Quartal egal wie oft man in dem zeitraum zum Arzt geht.

zum Thema Physx-Karte:
zu Physikbeleunigung in hardware sage ich ja aber zu einer extra Karte, klar nein.
ATI und Nvidia haben es doch schon angekündigt, und selbst die aktuellen Karten G71 & R580 sind theoretisch schon dazu in der Lage. Eine Grafikkarte braucht man sowieso und wenn die das später genauso gut können wie diese Karte (ATI hat sogar bessere Leitung versprochen) wozu dann noch so eine Karte kaufen? Deshlab hoffe ich und bin mir auch ziehmlich sicher das sich das model als Zusatztkarte nicht durchsetzen wird.
 
msgt schrieb:
Zum Thema Physx-Karte:
zu Physikbeleunigung in hardware sage ich ja aber zu einer extra Karte, klar nein.
ATI und Nvidia haben es doch schon angekündigt, und selbst die aktuellen Karten G71 & R580 sind theoretisch schon dazu in der Lage. Eine Grafikkarte braucht man sowieso und wenn die das später genauso gut können wie diese Karte (ATI hat sogar bessere Leitung versprochen) wozu dann noch so eine Karte kaufen?

Ich frage mich, was die Leute immer gegen Erweiterungskarten haben. Alle wollen sie immer alles in eine Chip quetschen.

Aber mal ein Wort zur Grafikkarten-Physik. Sieh dich hier im Forum mal genauer um. Dann wirst du sehen, das Havok FX und wie immer ATi seine Schnittstelle bezeichnen will keine richtige Physikengine darstellt, sondern nur der grafischen Verschönerung dient.


Der Ablauf der Graka-Physik sieht ungefähr so aus:
CPU -> Wrapper -> Direct3d -> Graka-Treiber -> Graka Shaderprogramm -> Anzeige

Wie du siehst berechnet die Graka die Physik mit ihren Shaderprogrammen und gibt die fertig berechnete Szene sofort aus. Sie teilt das Ergebnis der Berechnungen aber nicht der CPU mit. Das kann sie aus technischen Gründen gar nicht.


Anders beim PhysX-Chip:
CPU -> PhysX-Treiber -> PPU -> PhysX-Treiber -> CPU -> Direct3d -> Graka-Treiber -> Anzeige

Hier erhält die CPU also vorerst die kompletten Informationen über die berechnete Szene, bevor sie sie an die GPU weiterleitet. Die CPU weiß also im Gegensatz zum oberen Beispiel genau, wo sich jedes Objekt befindet.

Bei den Grakas weiß sie das nicht und kann auch nicht feststellen, ob du von einem Objekt getroffen wurdest oder nicht. Damit lassen sich so Spiele wie Cellfactor also nicht realisieren. Auch solche "Rätsel" wie in HL² funktionieren nicht mit grafikkartenbeschleunigter Physik.

Das geht nur mit der PPU oder per Software. Die Grakas sorgen nur für schönere Explosionen, können aber nicht in's Gameplay eingreifen.

Daher ist das keine wirkliche Alternative.
 
Zurück
Oben