News nVidias G80 kommt mit Physikbeschleunigung

und mal wieder ist Nvidia die Firma die den Anfang macht, und ATI wird dann wieder nachziehen müssen :lol:
 
Hitbit schrieb:
Ich frage mich nur, ob es so sinnvoll ist, die Physikberechnungen auf die GPU zu verteilen in Zeiten von dual- und demnächst quadcoreprozessoren, wo doch bei aktuellen Spielen nichma der 2. Kern genutzt wird, welcher sich für die Berechnung der Physik eignen würde, klärt mich ma bitte auf, wo da der Vorteil sein soll.

Weil eine PPU wesentlich effizienter ist und speziell dafür entwickelt wurde.

mFg tAk
 
@ Hitbit:

Die GPU ist für die Physik anscheinend besser geeignet. Die CPU ist nicht für etwas spezielles optimiert, kann dafür aber alle Arbeiten die anfallen erledigen. So wie es aussieht hat NVIDIA da an dem Design und so weiter gearbeitet, das es auch gut mit Physik klappt.

@ Topic:

Solange die Karte genug Power hat um Physik und Grafik gleichzeitig zu berechnen und es im Gleichgewicht bleibt und naja die Temperatur, der Verbrauch sich in Grenzen hält, find ich das OK. :)
 
@Hitbit
Weil Prozessoren nunmal richtig lahm sind im Vergleich zu Grafikkarten. Die CPU ist halt ein Universal Prozessor. Außerdem eignet sich die Architektur von Grafikkarten recht gut für Physikbeschleunigung. In der C't gabs mal ein Beispiel dazu (mit einer 7800gtx).
Die Grafikkarte hat 24 Pixel- und 8 Vertexshader -> 32. Je Shader zwei Rechenwerke -> 64. Die Rechenwerke rechnen immer mit allen vier Farben (blau rot grün alpha) ergeben 256 Gleitkommaoperationen gleichzeiting. CPUs schaffen nur 8, bei Quadcore hast du 32.:lol:
Dabei wurden nichtmal alle Rechenwerke in der GPU mitgezählt, sondern nur die Shader.
 
zatarc schrieb:
Definitiv der richtige Weg. Früher gab es ja auch eine Trennung zwischen Grafikkarte und 3D-Beschleuniger, bis man einsah, dass auch auf eine Karte passt ;)

Echt Wirklich?!

Dir ist schon klar, dass keiner der damals großen Grafikkartenhersteller (und, da ist auch einer dabei, der von einigen Leuten hier wie ein Götze angebetet wird..) auch nur Ansatzweise den Willen hatte, so etwas zu entwickeln?

Erst als 3dfx mit ihrem 3D Beschleuniger Erfolg hatten und ein weiterer n00by diese Idee durch eine kombinierte 2D/3D Lösung verbesserte, ging den großen ein Licht auf und man fing ebenfalls mit der Entwicklung an.. (und außer ATi hört man heute von keinem mehr was..)

Heute wiederholt sich diese Geschichte wieder.. nur das dieses mall die großen von Anfang an schlau genug sind, die Idee des kleinen Newcomers zu „klauen“..
 
Accuface schrieb:
und mal wieder ist Nvidia die Firma die den Anfang macht, und ATI wird dann wieder nachziehen müssen :lol:

? physik per ati hab ich aber auf der gamescon schon erlebt
also zieht wohl eher nvidea nach
 
Zuletzt bearbeitet:
Also machen dies wie ATI 3 Grafikkarten 2 für die Grafikberechnung 1 für Physikberechnung! War klar das nv auch mal was von ATI abschauen muss ;) ! Ist nur noch die fragen in welcher Leistungsklasse die Graka sein muss um Physikberechunungen auch in der passenden geschwindigkeit zu berechnen.
 
Ich denke nicht dass Nvidia mit dem G80 gleich einen Chip rausbringt der komplett eine Physikbeschleunig wie die Ageia hardwaremäßig intigriert hat. Es kommt mir eher so vor als würde man die Unified Shader Architektur so optimieren und verbessern dass diese auch die Physik eines Spieles berechnen kann. Damit muss man selbstverständlich mit Leistungsverlust rechnen sodass die Physikbeschleunigung erst im SLI Modus die volle Leistungsfähigkeit zweier Grafikarten ausnutzt. Eine übernimmt dann das Rendern und die andere die Physik. So werden im Gegensatz zu heute beide Grafikkarten zu 100 Prozent genutzt.

Gruß
 
Ich schmeiße jetzt einfach mal in den Raum, dass zumindest ich der Meinugnb in, dass der G80 keine Unified-Shader-Architektur hat. Zudem kommt mir in der Aussage noch so einiges andere komisch vor.
 
das ist doch total dumm die optiemieren dann alles für SLi oder Crossfire und mir einer einzelnen Karten kann st dann nicht mehr zocken oder was dann komm da noch die Physics-Card wo soll das hinfüren Oct -Sli/Crossfire + 2 Physics-Cards
 
Es geht auf jeden Fall in die richtige Richtung, auch wenn es beim G80 nur der Anfang ist. In ein paar Jahren wird es so normal sein wie heute 2d/3d-Karten. Ich glaube nicht das sich eine Physik Karte einzel so gut verkaufen lässt das die Spiele Industrie groß darauf einsteigt. Mit integrierter Physik ist das schon was anderes, wenn dann beim G90 und G100 jede Karte Physik hat, und es auch vernünftig unterstützt wird. So ist das in der PC Welt, es wird immer was neues geben und in die aktuelle Hardware integriert werden.
 
Au ja endlich weg von dieser 100.000 karten wirtschaft das kann ich nur sehr begrüßen.
damit dürften die physix karten ihre zeit schon wieder hinter sich haben, bevor sie überhaupt begonnen hat ;)
 
Ich weiss jetz zwar nich wie es um DX10 bestellt ist (der vista zwang kotzt mich genug an), aber wenn es von der physik keine implementationen von M$ gibt, kann man sich wohl ein einheitliches physikmodell in die haare schmieren. So heissts dann in zukunft wieder: Kauf ich jetz das spiel X? Aber dafür brauch ich die karte Y, denn die karte Z kann die physik nicht... Ohne eingriff von M$ haben da auch externe lösungen wie die PhysX keine besondere lobby bei den entwicklern (zumindest auf dem windowssektor wirds so bleiben).
 
Juhu.... endlich mal was wirklich neues:)
 
@RocketChef
Das ganze wird wohl erstmal von HavoxFX entschärft. Zudem munkelt man ja auch, dass MS im stillen Kämmerlein an einer Physik-API arbeitet.
 
Zurück
Oben