News CUDA ermöglicht Berechnungen auf nVidia-GPUs

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.601
„CUDA“ – nein, eine neue Abkürzung in der deutschen Bürokratie ist damit nicht gemeint. CUDA steht stattdessen für „Compute Unified Device Architecture“ und umschreibt die Möglichkeit, nVidia-GPUs für besondere Berechnungen wie Physik beziehungsweise GPGPU-Anwendungen effektiver nutzen zu können.

Zur News: CUDA ermöglicht Berechnungen auf nVidia-GPUs
 
Na dann ... bye bye Ageia Physx :D

Dann sollte doch eine 8800 und ein QuadCore ausreichen um Grafik und Physik gleichzeitig schnell und gut berechnen zu können.
 
Wie oft noch eine GPU kan ENTWEDER PPU, GPU oder GPGPU aufgaben erfüllen, nicht alles auf ienmal! Und eine Physikkarte macht diese Berechnungen trotzdem 10.000 mal effektiver.

Ich weis nicht was hier einige denken, aber anscheinend schreiben hier einige, ohne zu wissen, was sie überhaupt schreiben...
 
Naja ein G80 plus eine Physx-Karte ist aber immernoch billiger, effizienter, platzsparender als zwei G80 Bretter. Und solange Spiele nicht direkt die Grafikkarte ansprechen, glaub ich kaum das man Physikberechnung und Grafikeffekte gleichzeitig auf einer Karte bewerkstelligen kann. Von der Performance ganz zu schweigen. Erst wenn Physikeffekte über DirectX realisiert werden, könnte man sich das in der Theorie vorstellten, praktisch wird man aus Performancegründen immer zwei Karten nehmen.
 
@3
Dann müßte die Grafikkarte allerdings die Physik UND die Grafik berechnen, von daher wird Physix wohl potenter sein.
Außerdem wird Physix auch in nicht allzu ferner Zukunft besser unterstützt werden...
 
@BigChiller: gib mir dochmal bitte den Link, wo das genau geschrieben steht... die GPUs von heute sind hochkomplex und schon allein durch die Shader nicht mal mehr richtig "spezialisiert", sondern universell. Warum sollte eine Grafikkarte also nicht mit ihren Ressourcen hausieren können? Jeder der 128 Shader einer GTX stellt im Prinzip einen eigenen Prozessor dar. Aufgabenteilung sollte für die Karte kein Problem darstellen.

Mir kommts eher so vor als möchte hier jemand an 15 Jahre alten Grundkenntnissen festhalten anstatt die Änderungen der letzten Jahre zu akzeptieren ;)

@godess unter mir: ebenfalls unrichtig. Die Physik-Berechnungen der G80 sind auch "echt", nicht nur Eye-Candy.
 
Zuletzt bearbeitet:
bei ageia is die berechnete phsyik wenigens "greifbar", und nich nur effekthascherei wie bei den ihv's
 
Viel interesanter ist es, inwieweit man das auch für richtige Berechnungen nutzen kann und nicht nur die pille-palle Kollisionsabfragen in Spielen...
Bin mal gespannt, ob ich als Physiker auch nen Nutzen ziehen kann. Werde auf jeden Fall mal ein Auge drauf werfen, wieviel schneller man bestimmte Berechnungen machen kann. Ich darf nämlich einen etwas größeren Code entwickeln, der dann eigentlich auf nem Superrechner nebenbei mit laufen könnte (außer man will ein paar Stunden warten ;) ). Vielleicht ergibt sich damit ja ne Möglichkeit, dass auf meinem (baldigen) Rechner zu verbessern.
 
Immer diese mülligen Aussagen zur Physikberechnung. Man könnte meinen, die werden von Äh-Gay-a bezahlt.

Mit den US kann man jede Physik/AI/Sound und was sonst berechnen wie man will, gibt ja schließlich diverse Projekte dazu, die sogar auf der GF5/6 aufgesetzt haben (als ob keiner zumindest www.gpgpu.org kennen würde). Außerdem steht doch im Test der 8800GTX, dass es anscheinend noch kein Game gibt, das alle 128 Einheiten ausnutzen kann. Kann man den Rest dann (hoffentlich) für anderes gebrauchen. Außerdem gibt es Geometrieshader, die der CPU die Geometrieberechnungen abnehmen können. Seit SM3 (!) gibt es auch Branching, also Verwendung von IF und Co. -> Kollisionserkennung und Co. sind möglich.

Btw. PCIe hat genug Bandbreite auch in Rückrichtung. Also weg mit unsinnigen Zusatzkarten, die durch eine halbwegs vernünfitge Programmierung eh überflüssig werden. (nVidia wird mit CUDA und seiner Marktmacht vermutlich mehr Leute ansprechen als Ägeia).
 
Zuletzt bearbeitet:
PhysX ist da viel weiter als HavokFX. Aber für Spiele, die keine PhysX Engine besitzen und zbsp. mit Havok arbeiten, könnte dann eine Grafikkarte anstatt CPU für die Physik einspringen.
Aber wer richtige Physik haben will kommt an PhysX nicht vorbei, das ist so und wird auch so bleiben, es sei denn Ageia verkauft die PhysX Engine oder eine andere Softwareschmiede entwickelt etwas gleichwertiges.
Aber ist schon interessant dass dies mit der Physik auch auf älteren Karten laufen soll.
Was ist denn nu eigentlich mit der VideoEncoding Technologie, welche auf dem G70 zum Einsatz kommen sollte?! Hat nVidia daran das Interesse verloren? Das wäre nämlich sehr interessant Videos auf der Grafikkarte zu encodieren.
 
eehhmm.. schon mal daran gedacht, dass es nicht nur um spiele geht? jetzt kann man leichter die power der grafikkarte auch mit anderen anwendungen wie bildbearbeitung etc benutzen. apple macht das zB schon lange (zB bei apperture) und man hat so auch fuer nicht 3D anwendungen deutlich mehr power zur verfuegung.

lg
Lion
 
Also man merkt schon das einige ziemlich Gehirngewaschen sind .
Wenn es um eine zweite ,dritte oder sogar eine fünfte Karte geht...dann solles gefälligst eine Grafikkarte sein ( Kopfschüttel ).
Gut ..ich bin auch nicht so glücklich über den Start der PhysX-Karten ...aber bleiben wir mal fair , diese Karten gibt es erst seit ein paar Monaten .
Und Ageia kann schon was vorzeigen .....( gut das überzeugt noch nicht ) .....was hat denn ATI und Nvidia ausser bla,bla,bla, ..blub und Peng ....nix...aber wirklich nix !!
Handelt es sich hier um echte Physik oder nur um Physikefekte ?? Ageia hat doch erst mal die Physik an rollen gebracht .... sonst würden wir noch in 10 jahren über eine Kiste springen und ein paar Türen öffnen .
Aber ich lasse mich gern vom gegenteil überzeugen ....warten wir mal ab .
Und übrigens scheint die PhysX-Karte auch die preiswertere Lösung zu sein wenn ich das mal überschlage ....und vom Stromverbrauch gar nicht zu reden ......
 
Wollen das manche nicht verstehen? Die Karten sind im Gegensatz zu Ägia programmierbar. Man kann die Daten die dort berechnet werden weiter verwenden. Egal ob Physik zum anschauen, zur Verwendung in Spielen oder ob man damit seine wissenschaftlichen Berechnungen beschleunigen will. Für letzteres würde ich dann sogar mal das komische AMD 4x4 ausprobieren wo ich 4 Karten reinstecken kann. Für aufwendige Berechnungen ist das sinnvoller als für Spiele.
 
also wo der Bup recht hat hat er recht :D
zustimm :D
 
sorry...mein Kommentar hat sich an den Ottonormalanwender gerichtet .....und nicht an den Wissenschaftler ;-)
 
Ändert aber auch nicht viel an der Tatsache, daß Grafikkarten die Aufgaben der PhysX gar nicht mal so schlecht übernehmen könnten!

Die Aufgaben, auf die die Shadereinheiten spezialisiert sind, ähneln Physikberechnungen ganz extrem. Die Grafikkarten dürften für Physik wirklich gut geeignet sein. Auch haben ATI/Nvidia einen riesen Vorteil bei dem Herstellungsprozess (für Ende dieses Jahres steht wohl schon 65nm an) und besitzen zusätzlich Entwicklungswerkzeuge im Wert meherer Millionen. Allein dadurch können die mal eben 5mal so viele Tansistoren unterbringen und den Takt deutlich steigern (bei gleichem Stromverbrauch versteht sich).

Daneben gibts noch weitere Vorteile bei den Grafikkarten:
- In kurzer Zeit wird eh jeder eine Grafikkarte haben, die das kann, im Gegensatz zur PhysX, daß ist für die Publisher ein wirklich entscheidener Punkt.
- Der Spieleentwickler kann selbst entscheiden, wie viel Shaderleistung er in die unterschiedlichen Bereiche steckt. (Grafik, Physik, .... )
- Die Shader sind beliebig programmierbar! Wenn man einen speziellen Effekt haben will, brauch man nicht auf eine andere Firma jahrelang warten.
- Auch kann man die Shaderleistung für andere Dinge zweckentfremden. z.B. Video de/encoden. Und das kann dann jede kleine Firma selbst entwickeln und nicht nur der Hersteller der Karte.
 
Heutige Grafikkarten und PhysX sind sich gar nicht so unähnlich - genauer gesagt, sind sie mehr oder weniger genau dasselbe, nämlich reine Stream-Prozessoren.
Theoretisch kann mit mit einer Graka also genau dasselbe machen wie mit PhysX:

Und CUDA ist, wie auch weiter oben schon geschrieben, wohl hauptsächlich für GPGPU gedacht.
 
Wieso ist die News eigentlich noch nicht Top-News? -_-

mfg Simon
 
Zurück
Oben