Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Hm, jetzt müssen ja nur noch die MoBo/Chipsatz Hersteller nachziehen. Die Chipsatzhersteller sollten sich beeilen 80 PCI Lames zur Verfügung zu stellen und die MoBo Hersteller zaubern uns dann 4x 16 + 2x 8 PCI-E Slots mit 2x AM2.
Also ich fand die Idee eine GPU für Physix-Berechnungen zu "misbrauchen" auch eher ungeeignet. Allerdings habe ich mich eines besseren belehren lassen. Es gibt seit einigen Jahren Projekte die sich mit der GPGPU befassen(General Purpose Computation on Graphics Processing Unit). Also wie bringe ich meine Graka dazu zu rechnen. Dabei zeigt sich das GPUs sehr schnelle Rechner sind ca. um Faktor 3 -10 mal schneller als jede Intel oder AMD CPU, Dual Core inbegriffen! Wobei die neue Architektur von ATI mit diesem Ringbus wohl momentan die schnellsten Ergebnisse zeigt. siehe Hier
Allerdigs gibt es bis jetzt zwei große Nachteile:
1. Die Programmierung ist mühselig weil shader benutz werden, in einer Art und Weise für die sie nicht gedacht waren, dem entsprechend sind die APIs wenig Benutzerfreundlich.
2. Die Rückgabe der Ergebnisse an laufende Prozesse der CPU sind garnicht oder nur auf Umwegen realisierbar die einen Großteil der Performance kosten. So das real der Performance-Vorteil von 3 - 10 auf 1,5 - 3 schrumpft. Was allerdings immer noch beachtlich ist.
Sollte DX10 die Möglichkeit eröffnen diese Misstände aufzuheben und sollte ATI in dieser Presentation den Mund nicht viel zu voll genommen haben so ist das eine interessante Alternative. Letztendlich sollte sich die Preis/Leistungsstärkere Alternative durchsetzen. Ich könnte mir vorstellen die Graka der vorletzten Generation zum "rechnen" zu verwenden anstatt sie bei eBay zum halben Preis der Anschaffung zu verkloppen bei meinem nächsten Graka-Update. Vorrausgesetzt sie bringt richtige Spielphysik und nicht nur Effektphysik.
Also ob es jetzt die Graka oder die PhysX wird ist mir ersteinmal gleich, Hauptsache ist es geht in Richtung mehr Interaktion in der Spielwelt und einem API das auch von "Normalsterblichen" programmiert werden kann.
was habt ihr alle, dass ist super praktisch. wenn man jetzt die grafikkarte aufrüstet, kann man seine alte grafikkarte weitergebrauchen als physikbeschleuniger.
Und es ist auch vollkommender schwachsin, dass man das machen muss, ATI läst offen, ob man crossfire, eine graka und eine physik, oder ob crossfire und noch eine physikkarte einstetzen will. da ist nvidia sehr viel unflexibler.
Es mögen zwar verschiedene Techniken sein, aber SLI hat immer noch 3DFX eingeführt. Würde 3DFX noch bestehen, hätte nVidia "kein" SLI. Also nix mit nVidia hat SLI eingeführt... das würde dann jetzt heftige Namenskriege geben wegen Patentsverletzung und und und
nVidia hat nunmal aber alle 3DFX Patente. Also können sie es auch SLI nennen, und wie wir sehen, funktioniert es prima. Die meisten halten nVidia für den Erfinder und SLI & nVidias SLI für das gleiche.
(kann sich eigentlich noch jemand dran erinnern mit welchen miesen Methoden nVidia 3DFX plattgemacht hat? )
@whynot?: Kann man, aber die Leistungsfähigkeit ist für extensive physikalische Berechnungen schlicht und ergreifend zu gering (siehe meinen Beitrag oben). Physikalische Berechnungen (genauso wie 3D-Grafik-Rendering) sind im Allgemeinen unabhängig voneinander. Das heisst, es ist komplett egal, ob die Berechnungen brav nacheinander (in Serie) oder gleichzeitig (parallel) durchgeführt werden. Bei der Abarbeitung von Befehlssequenzen ist es genau umgekehrt. Dort hängen die nachfolgenden Anweisungen oft stark von den vorhergehenden ab (Vergleiche, Sprünge, Schleifen, usw.).
Die CPU arbeitet alles brav nacheinander ab, weil das für ihre Zwecke die optimale Form ist. Für Grafik- und Physikberechnungen ist dieses Vorgehen aber ineffizient. Deshalb gibt es Grafikkarten (viele parallel-arbeitende Pixel- und Vertex-Shader) und bald, in welcher Form jetzt auch immer, Physikbeschleuniger.
ein problem gibts aber bei der physik in der GraKa:
es ist nur effeckphysik sprich blätter un son ferz!
es hat keinen einfluss auf diespielphysik.
zB kann man [wenn ich mich nicht schwer irre] noch oder garnicht eine ragdoll-engine auf dre graka laufen lassen oder eien gravity-gum simulieren.
dafür brauchts halt doch n prozi!
und mir ist "echte" physik lieber als "effekthascherei"...
aber geil ists schon
das ist einfach nur schwachsinn, nVidias idee ist ja noch ganz ok, somit kann man z.B. bei HL2 viel besser fahren, da da keine große Graka notwendig ist.
aber wer soll 3 Grakas in seinem PC nutzen? der stromverbrauch wäre viel zu hoch und man müsste nen Mainboard haben welches das ganze auch noch ohne probs unterstützt, und man müsste auf PCI(e) plätze verzichten, welche ja manchmal doch gut sind (TV- sowie Soundkarten).
denke kaum, dass ATI damit nen guten streich macht!
Nur bei den unter DX9 implementierten Lösungen ist die Rückgabe der "Ergebnisse" an die CPU zum Weiterrechnen nicht gegeben! Unter DX10
sollte das anders sein! Mit anderen Worten unter DX10 könnte eine Graka sehr wohl Spielphysik "errechnen".
Es mögen zwar verschiedene Techniken sein, aber SLI hat immer noch 3DFX eingeführt. Würde 3DFX noch bestehen, hätte nVidia "kein" SLI. Also nix mit nVidia hat SLI eingeführt... das würde dann jetzt heftige Namenskriege geben wegen Patentsverletzung und und und
Das Scalable Link Interface wurde 2004 von NVIDIA eingeführt. Bei 3DFX um 1998 gab diese Technik es das in der Form NICHT.
Die Tatsache, dass sie sich an den Namen SLI drangehangen haben, hatte wohl Marketinggründe. Die SLI-Lösung von NVidia ist technisch meiner Meinung nach schlechter als die von 3DFX damals.
Du kannst nur behaupten, dass 3DFX erstmals 2 Karten im Verbund betrieben haben!
@back to Topic:
Es wird die nächsten Monate heiss hergehen auf dem Grafik/Physiksektor. Also wer sich heute eine neue Karte kauft, bereut seine Entscheidung wahrscheinlich, wenn Vista und DX 10 da ist.
Die Physx-Karten sind auf einem guten Weg zum Standard zu werden.
die Unreal Engine 3 und die CryEngine 2 wollen sie unterstützen und das ist schonmal die halbe Miete, da das die zukünftigen
Die CryEngine2 wird die Karte leider nicht unterstützen und sowie ich Cevat Yerli verstanden habe ist das auch nicht geplant.
Vom Standard sind die PhysX-Karten noch recht weit entfernt. Solange es keine einheitliche Schnittstelle a la Direct Physics gibt, werden sich nicht sehr viele Entwickler auf die Karte einlassen.
Wenn MS aber die Physics-API fertig hat, dann dürfte das recht interessant werden. Dann ist es dem Programmierer nämlich egal, ob dahinter eine PhysX-Karte, eine Grafikkarte oder ein Prozessor steckt, der die Berechnungen übernimmt.
Eigentlich schade, dass es so "viele" Idioten gibt die sich zwei Grafikkarten einbauen. Genau die sind es, die ATi und nVidia dazu bringen noch mehr Mist in die Welt zu setzen. SLI und Crossfire sind anscheinend nur die Spitze des Eisbergs. Die einzige Entwicklung die da noch stattfindet sind Möglichkeiten um noch mal 3 GraKas reinzustopfen...
Warum regt sich hier jeder über zu hohe kosten auf wenn man Physik und sli überhaupt noch garnicht brauch
Die Frimen sagen doch nicht hier wir haben was neues und das müßt ihr jetzt kaufen sonst könnt ihr nichts mehr spielen
Das wird noch sehr lange dauern alles..Dual core gibts schon seit über einem jahr..Anfangs voll teuer jetzt eher billiger..Man brauchte es früher nicht für spiele und sogar heute brauch man es nicht. Also wieso neues kaufen wenn das alte noch reicht?! wenn jetzt quadcore rauskommt brauch man es auch nicht ..und es wird wieder lange dauern bis wirklich jedes spiel die scheiß cpu zu 100% auslastet also regt euch nicht so auf keiner muß irgend was kaufen es ist nur ein Fortschritt der Technik und man kann ganz klar daraus ziehen was die Zukunft uns bringt
Wäre schön, wenn Du mal die Beiträge richtig lesen würdest.
Ja, dann könnte ich mir echt einiges an Schreibarbeit ersparen.
Mein Beitrag zu NVIDIA SLI bezog sich auf die SLI-Technik, so wie sie 2004 auf den Markt geschmissen wurde. Es bezog sich nicht darauf, welcher Grafikkartenhersteller als erster 2 GrafikGPUs in einem Rechner verbaut hat. Und Nvidia hätte wahrscheinlich auch ohne 3DFX solch eine Lösung zu Stande gebracht, nur hätte das eben gedauert und der Name SLI wäre vergeben... richtig.
Dein Link "zur Bildung" befindet sich übrigens bereits im meinen Beitrag No. 55.
Veräppeln kann ich mich alleine!
wäre 3dfx pleite gegangen und niemand wüsste von dieser sli technik .so gebe es dann keine SLI . Dank nVidia das die Patente und die Arbeiter übernohmen worden sind !
mal was anderes
viel sagen immer das ne cpu das nie schaffen kann
klar hat ne ppu wohl mehr leistung in sachen physik, aber mal vor augen halten dass die cellfactor demo ohne ppu nur 2 fps langsamer lief als ohne(nur von cpu berechnet)
und ich finde die idee von ati ncht schlecht
so kann man seine alte graka für physikberechnungen weiternutzen
ob man da seine alte graka oder physikkarte reinbaut ist doch latte
mal davon abgesehen das grakas einiges billiger sind als physx wegen der massenfertigung
die müssen nur noch zeigen dass das ganze auch leistungsfähig ist