Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News nVidias G80 kommt mit Physikbeschleunigung
- Ersteller Christoph
- Erstellt am
- Zur News: nVidias G80 kommt mit Physikbeschleunigung
tAk
Vice Admiral
- Registriert
- Feb. 2005
- Beiträge
- 7.146
Hitbit schrieb:Ich frage mich nur, ob es so sinnvoll ist, die Physikberechnungen auf die GPU zu verteilen in Zeiten von dual- und demnächst quadcoreprozessoren, wo doch bei aktuellen Spielen nichma der 2. Kern genutzt wird, welcher sich für die Berechnung der Physik eignen würde, klärt mich ma bitte auf, wo da der Vorteil sein soll.
Weil eine PPU wesentlich effizienter ist und speziell dafür entwickelt wurde.
mFg tAk
Red_X
Cadet 4th Year
- Registriert
- Feb. 2006
- Beiträge
- 102
@ Hitbit:
Die GPU ist für die Physik anscheinend besser geeignet. Die CPU ist nicht für etwas spezielles optimiert, kann dafür aber alle Arbeiten die anfallen erledigen. So wie es aussieht hat NVIDIA da an dem Design und so weiter gearbeitet, das es auch gut mit Physik klappt.
@ Topic:
Solange die Karte genug Power hat um Physik und Grafik gleichzeitig zu berechnen und es im Gleichgewicht bleibt und naja die Temperatur, der Verbrauch sich in Grenzen hält, find ich das OK.
Die GPU ist für die Physik anscheinend besser geeignet. Die CPU ist nicht für etwas spezielles optimiert, kann dafür aber alle Arbeiten die anfallen erledigen. So wie es aussieht hat NVIDIA da an dem Design und so weiter gearbeitet, das es auch gut mit Physik klappt.
@ Topic:
Solange die Karte genug Power hat um Physik und Grafik gleichzeitig zu berechnen und es im Gleichgewicht bleibt und naja die Temperatur, der Verbrauch sich in Grenzen hält, find ich das OK.
@Hitbit
Weil Prozessoren nunmal richtig lahm sind im Vergleich zu Grafikkarten. Die CPU ist halt ein Universal Prozessor. Außerdem eignet sich die Architektur von Grafikkarten recht gut für Physikbeschleunigung. In der C't gabs mal ein Beispiel dazu (mit einer 7800gtx).
Die Grafikkarte hat 24 Pixel- und 8 Vertexshader -> 32. Je Shader zwei Rechenwerke -> 64. Die Rechenwerke rechnen immer mit allen vier Farben (blau rot grün alpha) ergeben 256 Gleitkommaoperationen gleichzeiting. CPUs schaffen nur 8, bei Quadcore hast du 32.
Dabei wurden nichtmal alle Rechenwerke in der GPU mitgezählt, sondern nur die Shader.
Weil Prozessoren nunmal richtig lahm sind im Vergleich zu Grafikkarten. Die CPU ist halt ein Universal Prozessor. Außerdem eignet sich die Architektur von Grafikkarten recht gut für Physikbeschleunigung. In der C't gabs mal ein Beispiel dazu (mit einer 7800gtx).
Die Grafikkarte hat 24 Pixel- und 8 Vertexshader -> 32. Je Shader zwei Rechenwerke -> 64. Die Rechenwerke rechnen immer mit allen vier Farben (blau rot grün alpha) ergeben 256 Gleitkommaoperationen gleichzeiting. CPUs schaffen nur 8, bei Quadcore hast du 32.
Dabei wurden nichtmal alle Rechenwerke in der GPU mitgezählt, sondern nur die Shader.
zatarc schrieb:Definitiv der richtige Weg. Früher gab es ja auch eine Trennung zwischen Grafikkarte und 3D-Beschleuniger, bis man einsah, dass auch auf eine Karte passt
Echt Wirklich?!
Dir ist schon klar, dass keiner der damals großen Grafikkartenhersteller (und, da ist auch einer dabei, der von einigen Leuten hier wie ein Götze angebetet wird..) auch nur Ansatzweise den Willen hatte, so etwas zu entwickeln?
Erst als 3dfx mit ihrem 3D Beschleuniger Erfolg hatten und ein weiterer n00by diese Idee durch eine kombinierte 2D/3D Lösung verbesserte, ging den großen ein Licht auf und man fing ebenfalls mit der Entwicklung an.. (und außer ATi hört man heute von keinem mehr was..)
Heute wiederholt sich diese Geschichte wieder.. nur das dieses mall die großen von Anfang an schlau genug sind, die Idee des kleinen Newcomers zu „klauen“..
Pepsito
Lt. Junior Grade
- Registriert
- Dez. 2005
- Beiträge
- 356
Das ist normal für DX 10 Karten!
http://babelfish.altavista.com/babe...l=http://www.pcpop.com/doc/0/155/155879.shtml
http://babelfish.altavista.com/babe...l=http://www.pcpop.com/doc/0/155/155879.shtml
Accuface schrieb:und mal wieder ist Nvidia die Firma die den Anfang macht, und ATI wird dann wieder nachziehen müssen
? physik per ati hab ich aber auf der gamescon schon erlebt
also zieht wohl eher nvidea nach
Zuletzt bearbeitet:
Also machen dies wie ATI 3 Grafikkarten 2 für die Grafikberechnung 1 für Physikberechnung! War klar das nv auch mal was von ATI abschauen muss ! Ist nur noch die fragen in welcher Leistungsklasse die Graka sein muss um Physikberechunungen auch in der passenden geschwindigkeit zu berechnen.
Nagsor Inaste
Lieutenant
- Registriert
- Sep. 2006
- Beiträge
- 544
3 grakas zu kaufen drückt aber auch aufs Geld ....
Sofern diese Gerüchte stimmen!
Sofern diese Gerüchte stimmen!
FreddyMercury
Rear Admiral
- Registriert
- Dez. 2002
- Beiträge
- 5.395
Ich kauf mir dann schon mal ein eigenes AKW...
DrAnalrider
Cadet 4th Year
- Registriert
- Aug. 2005
- Beiträge
- 82
Ich denke nicht dass Nvidia mit dem G80 gleich einen Chip rausbringt der komplett eine Physikbeschleunig wie die Ageia hardwaremäßig intigriert hat. Es kommt mir eher so vor als würde man die Unified Shader Architektur so optimieren und verbessern dass diese auch die Physik eines Spieles berechnen kann. Damit muss man selbstverständlich mit Leistungsverlust rechnen sodass die Physikbeschleunigung erst im SLI Modus die volle Leistungsfähigkeit zweier Grafikarten ausnutzt. Eine übernimmt dann das Rendern und die andere die Physik. So werden im Gegensatz zu heute beide Grafikkarten zu 100 Prozent genutzt.
Gruß
Gruß
XShocker22
Rear Admiral
- Registriert
- Jan. 2006
- Beiträge
- 5.334
das ist doch total dumm die optiemieren dann alles für SLi oder Crossfire und mir einer einzelnen Karten kann st dann nicht mehr zocken oder was dann komm da noch die Physics-Card wo soll das hinfüren Oct -Sli/Crossfire + 2 Physics-Cards
Crazy-Chief
Lt. Junior Grade
- Registriert
- Feb. 2006
- Beiträge
- 492
Es geht auf jeden Fall in die richtige Richtung, auch wenn es beim G80 nur der Anfang ist. In ein paar Jahren wird es so normal sein wie heute 2d/3d-Karten. Ich glaube nicht das sich eine Physik Karte einzel so gut verkaufen lässt das die Spiele Industrie groß darauf einsteigt. Mit integrierter Physik ist das schon was anderes, wenn dann beim G90 und G100 jede Karte Physik hat, und es auch vernünftig unterstützt wird. So ist das in der PC Welt, es wird immer was neues geben und in die aktuelle Hardware integriert werden.
Matt at RC
Cadet 4th Year
- Registriert
- Aug. 2006
- Beiträge
- 79
Au ja endlich weg von dieser 100.000 karten wirtschaft das kann ich nur sehr begrüßen.
damit dürften die physix karten ihre zeit schon wieder hinter sich haben, bevor sie überhaupt begonnen hat
damit dürften die physix karten ihre zeit schon wieder hinter sich haben, bevor sie überhaupt begonnen hat
RocketChef
Lieutenant
- Registriert
- Aug. 2005
- Beiträge
- 626
Ich weiss jetz zwar nich wie es um DX10 bestellt ist (der vista zwang kotzt mich genug an), aber wenn es von der physik keine implementationen von M$ gibt, kann man sich wohl ein einheitliches physikmodell in die haare schmieren. So heissts dann in zukunft wieder: Kauf ich jetz das spiel X? Aber dafür brauch ich die karte Y, denn die karte Z kann die physik nicht... Ohne eingriff von M$ haben da auch externe lösungen wie die PhysX keine besondere lobby bei den entwicklern (zumindest auf dem windowssektor wirds so bleiben).
Der Wickermann
Ensign
- Registriert
- März 2006
- Beiträge
- 239
Juhu.... endlich mal was wirklich neues
H
humanTE1
Gast
Wäre ne gute Lösung finde ich, diese PPU Karten sind doch der letzte Schrott.
Ähnliche Themen
- Antworten
- 52
- Aufrufe
- 8.239
Leserartikel
Kühler- gegen Steckergate: DevPandis Hin und Her
- Antworten
- 72
- Aufrufe
- 16.258
- Antworten
- 2
- Aufrufe
- 2.279
- Angepinnt
- Antworten
- 122
- Aufrufe
- 31.162