News nVidias G80 kommt mit Physikbeschleunigung

Christoph

Lustsklave der Frauen
Registriert
Jan. 2002
Beiträge
3.100
Je näher der Veröffentlichungstermin eines neuen Produktes heranrückt, desto mehr Gerüchte gibt es um dieses. Dies gilt vor allem für Grafikchips, in diesem Fall für nVidias kommenden G80-Chip. Denn dieser wird dank einer überarbeiteten Architektur wahrscheinlich auch die Fähigkeit haben, Physik-Berechnungen durchzuführen.

Zur News: nVidias G80 kommt mit Physikbeschleunigung
 
Hoffentlich heisst es irgendwann nicht mehr Grafikkarte sonder Gamingcard: Eine Karte auf der Alles drauf ist, was man zum Spielen brauchte, anstelle von drei bis vier Karten, um vernünftig spielen zu können.
 
Naja, bin eher skeptisch. Erstmal müsste der G80 erscheinen. Dann wären Vergleiche mit anderen/normalen Physikkarten gut. Selbst wenn der G80 schneller sein sollte, wer hätte das Geld sich 3 Karten mit G80 zuleisten? Und was bräuchte man für ein System, indem nichts dieses Gespann ausbremst.
 
Dies ist als eine Anspielung auf den kommenden G80-Chip zu verstehen, der wahrscheinlich mit Physikbeschleunigungsfähigkeiten daherkommen wird.
Definitiv der richtige Weg. Früher gab es ja auch eine Trennung zwischen Grafikkarte und 3D-Beschleuniger, bis man einsah, dass auch eine Karte reicht ;)
 
Zuletzt bearbeitet:
macht ruhig weiter so, es kann nur besser werden. nichts ist schlimmer als für jeden scheiß ne neue Karte und die richtigen Treiber haben zu müssen...

aber dann gibts bald auch Netzteile 2 duo :p :p
 
wird die Physikberechnung 100% von der CPU verarbeitet, oder hat auch die GPU damit was zu tun ? denn WENN ja kostet dies ja auch wieder leistung oder etwa nicht ?
 
_DJ2P-GER_ schrieb:
... wer hätte das Geld sich 3 Karten mit G80 zuleisten?

Wo steht, dass man 3 Karten braucht? Nur, weil das Asus-Board 3 PCIe-Steckplätze hat?
 
@6: Ich glaub du verwechselst gerade GPU und CPU. Wenn die News sich bewahrheiten und nVidia die Physikberechnung auf der Graka integriert, dann wird die CPU (Der Hauptprozessor) natürlich entlastet, weil sich statt ihm die GPU (Der Grafikprozessor auf der Karte) mit der Physikberechnung beschäftigt.

Ich bin froh zu hören, dass man keine separate Karte für die Physik entwickelt. Kann #4 nur zustimmen, je mehr Funktionen auf einem Bauteil integriert sind, desto besser. In Zukunft wird SLI/CrossFire sicherlich auch durch Grafikkarten mit 2 GPUs ersetzt werden.

- cosh
 
Hmm, ich finde es eigentlich schade, das AGAEI-PhysX nicht so richtig (durch-)startet - klang nach einer vielversprechenden Erweiterungsmöglichkeit. Allerdings war der Zeitpunkt der Launchs nicht gut gewählt auf Grund fehlender Killer-Appliaktionen... Gibts da eigentlich was neues zu? Seit dem Launch der PhysX hab ich nix mehr gehört - scheint eine totgeburt gewesen zu sein?!

Ich denke Nvidia wird dabei bessere Karten haben bei der Menge an Games die sie monetär unterstützen (Quake4, etc.) um somit den Anreitz zu schaffen diese neue Technologie in die Games einfliessen zu lassen. Ich bin auf jeden Fall sehr gespannt darauf, denn eine realistische Game-Physik wäre schon lobens. & wünschenswert.


Greetz, G.
 
solange die karten nicht mehr als die cpu verbraucht sind sie gern willkommen:D
warte auf das sp1 bei nvidia physikkarte - siehe folgende generation vom g80

cheers
 
Das ist ja mal eine gute Nachricht. Noch ein Grund mehr nvidia zu kaufen. Ich werde aber erst mal die Tests abwarten, kann ja nicht schaden.
 
Wäre das dann so eine Lösung wie bei ATI, dass 2 Karten die Grafik übernehmen und 1 Karte für die Physikberechnung zuständig ist?
Oder funktioniert dass auch mit nur einer Karte im PC?
Das es ein MoBo mit 3 PCI verwirrt mich doch etwas, das würde ja auf die erste Variante hindeuten. (2 Karten für Graik, 1 für Physik)
 
@12#: So wie ich das dort aber lese, wird die Physikberechnung IN/AUF der nvidia karte berechnet ... also braucht man wohl keine extra karte ;)
 
jop, die idee ist sehr gut, besser als noch ne extra karte zu kaufen, aber der stromverbrauch muss stimmen und die kühlung auch^^
 
So wie ich das verstehe, werden die unified shader die Physikberechnung übernehmen (siehe golem.de)
Somit wären die unified shader schonmal bestätigt und dazu noch gleich mit Physikberechnung.

jetzt müsste nur noch der Stromverbrauch aktzeptabel sein....
 
GevatterTod schrieb:
Hoffentlich heisst es irgendwann nicht mehr Grafikkarte sonder Gamingcard: Eine Karte auf der Alles drauf ist, was man zum Spielen brauchte, anstelle von drei bis vier Karten, um vernünftig spielen zu können.

das kannste wohl vergessen, das war früher mal so, vor voodoo-zeiten.

man brauch wohl in zukunft wieder ein rechenzentrum um die ganze hardware unterzubringen. ich sag nur die entwicklung geht auf jeden fall in die richtung von immer mehr karten.

heute schon:
zb: sli oder crossfire, physik, ne netzwerkkarte mit integriertem 400mhz proz, soundkarte
sind schon ma 5 karten.

bald soll noch ne extrakarte für die KI kommen, wären es schon 6 karten, da sollte man dann schon sehn ob das mainboard so viel platz besitzt.

hab in meinem jetzigen pc gerade ma ne graka als karte, rest is onboard. wo soll die scheiße nur hinführen?
 
Zuletzt bearbeitet:
Das hört sich doch gut an.

Ich verstehe aber immer noch nicht, wieso Ageia ihr Produkt nicht weiter pusht. Zumal Ankündigungen von ATI und auch nvidia in Richtung PPU gemacht wurden.

mFg tAk
 
Ich frage mich nur, ob es so sinnvoll ist, die Physikberechnungen auf die GPU zu verteilen in Zeiten von dual- und demnächst quadcoreprozessoren, wo doch bei aktuellen Spielen nichma der 2. Kern genutzt wird, welcher sich für die Berechnung der Physik eignen würde, klärt mich ma bitte auf, wo da der Vorteil sein soll.
 
auf jeden fall einiges sinnvoller als eine zusätzliche karte! am schluss braucht ein sli-system mit einer physikberechnungskarte ja um die 2000watt. aber vom stromverbrauch mal abgesehen, auch der platz in einem pc bzw auf einem mobo ist ja auch nicht unendlich. ausser man geht im trend wieder rückwärts und fängt wieder an "wandschrank-pcs" zu bauen (schrank 1 > grafikkarten, schrank 2 soundkarte und tv-karten etc.) ;)
 
Zurück
Oben