Stickstoff schrieb:
der treiber erspart dir VVIIEELL geld wenn du deine spiele gern realistischer hättest ( wie ich ), denn so musst du keine 150€ teure karte kaufen....
Öhm, ne PhysX Karte für watt denne? Wozu sollte ich denn 150 € dafür ausgeben, das ding steckt drinen frisst strom und langweilt sich, wozu sollte ich die überhaupt kaufen? wenn ich sie garnicht kaufen will, wie spart die mir dann geld? Das bombadiert nur die Grafikkarte wieder mit irgendeinem müll den man nicht haben will
spawngold schrieb:
Hab ich das gesagt? *such*
Warum so angriffslustig? Hab doch nur gesagt, dass die CPU entlastet wird und das eine Highendkarte besser damit umgehen kann... Wo bitte hab ich da unrecht?
SPAWNI
Angriffslustig?
Wieso sollte eine High End Karte die von einem Spiel dermaßen gegen die Wand gesetzt wird sich wohler fühlen wenn die dann auch noch zusätzlich zum spass physx effekte berechnen darf? Dann hat man eine wundervolle DIA-show
nVidia wollte ja eh die CPU abschaffen und das auch noch per GPU berechnen, also könnten wir doch gleich noch CPU, GPU, PhysX und am besten noch Havok alles auf einer Karte berechnen die dann an einigen stellen heiß wird, besonders an dem geschmolzenen pcie port und man hat auch vorteile wir einen stromverbrauch von 1000
KWatt, da kriegt man denn dao 5 stecker die man einfach so innne steckdose steckt
Ne aber son blödsinn braucht man nicht, das wird von ein paar spielen unterstüzt. Jetzt können das die karten ja berechnen weil die spiele ja alle alt sind aber wenn das in zukunft spiele wie crysis nutzen werden dann brauchste minimum 2 karten damit du nicht nur 1 bild pro stunde hast und da kommt wieder der effect das man ne physX karte gekauft hätte, reingesteckt und die grafikkarte kriegtd anns chon 3 Bilder pro stunde.
Naja aber wenn das neue Leistungsfresser ähh spiele nutzen dann langweilt sich die cpu weil die auf die grafikkarten warten muss
wenn spiele Physik über PhysX oder Havok berechnen, sind die heutigen karten uhr alt und da wird man um 2 x2er karten nicht rumkommen