News Leben Ageias PhysX-Karten unter Nvidia weiter?

Wo ATI sich mühevoll in Zusammenarbeit mit Havoc was entwickelt kommt nVidia und kauft sich einfach die Firmen ein die sowas können. Jaja Monopole 4 Life :freak:

/Edit: Und wehe jetzt kommt einer mit "Intel ist der größte GPU Hersteller". Ihr wisst wat gemeint ist ;)
 
dezidiert -> dediziert

@mc.emi
Um ehrlich zu sein, finde ich alle Demo-Videos ziemlich sch***, um es mal so auszudrücken. Hinter der Idee steckt hohes Potential, leider war die Umsetzung einfach miserabel. Die Karten waren für das gebotene einfach viel zu teuer. Dafür einen Marktpreis von über 50€ zu verlangen war einfach utopisch. Selbst wenn dies bedeutet hätte, zunächst die Leistungsfähigkeit des Chips etwas zu reduzieren um ihn günstiger produzieren zu können. Zudem hätte man schon wesentlich früher Entwickler von sogenannten Krachern davon überzeugen müssen zumindest einen Teil der Technik in ihrem Spiel einzubauen. Zusammen mit den günstigeren Preisen hätte dies zu einer breiteren Akzeptanz geführt.
 
Bisher wurden Physikkarten bloss dazu genutzt, um zusätzliche Effekte darzustellen. Diese belasten aber die Grafikkarte, weil mehr Objekte angezeigt werden müssen. Was man über physikbeschleunigte Spiele bisher zu lesen bekam, war unter Berücksichtigung dieses Umstandes nicht berauschend.

Gerade Dual- und Quadcoreprozessoren bieten reichlich Leistung, um auch Physikeffekte mitzuberechnen. Grafikintensive Spiele werden bestimmt nicht schneller, wenn man eine grosse Zahl zusätzlicher Objekte darstellen muss, um die Physik auch wirkungsvoll an den Spieler zu vermitteln.

Im Hinblick auf die kommende DirectX Version mit Physik-API dürfte es auch für AMD kein Problem sein, eigene Lösung anzubieten. Intel hat bereits Havok aufgekauft, und könnte ebenfalls in diesem Markt aktiv werden. Insofern wäre nVidias bzw. Ageias Lösung eher uninteressant, wenn sie nicht breite Unterstützung anderer Hersteller erfährt.

Schlussendlich bleibt aber die Tatsache, dass Physik ebensogut auf der CPU berechnet werden kann. Ganz ohne aufwendige Hardwarelösung. Sollte sich die Hardware durchsetzen, besteht auch die Gefahr, dass neben Grafikblendern wie Crysis, die wenig echtes Spiel enthalten, noch Physikblender daherkommen, in denen dutzende Physikeffekte das im Grunde fehlende Spiel kompensieren müssen.

Ich bin sehr gespannt, ob nVidia überhaupt eine spezielle Hardwarelösung anstrebt, oder ob man darüber nachdenkt, brach liegende Ressourcen der GPU für derlei Effekte zu nutzen. Mit Triple und Quad SLI wäre ja immerhin genug Performance vorhanden, wenngleich es schwer vorstellbar ist, dass man soetwas dem Durchschnittsspieler verkaufen wird können. Die Frage ist wieviel Physik die virtuelle Welt braucht, um Spass zu machen ohne in Hardwarequälerei auszuarten.
 
NVidia sollte sich halt überlegen, wie sie es gestalten. Der Spielemarkt für den PC befindet sich sowieso im Sinkflug, da täte ein Durchdrücken von Physikhardware bzw. eine Abhängigkeit von einem bestimmten Hersteller dem sicher nicht gerade einen Gefallen.
 
Tja, mit den SLI- und Crossfire-Blöden kann man halt Knete machen ohne in die Entwicklung zu investieren.
Das sind Typen, die kaufen sogar ne PhysX Karte, die von keinem Spiel genutzt wird.
Hauptsache den Rechner vollklotzen.
Wenn der Müll nicht gekauft würde, hätten wir eher neue und innovative Grafikhardware.
 
willi? putz ma deine glaskugel bitte. die sicht scheint irgendwie beeinträchtigt zu sein ;) DANKE!
 
wir wollen aber vielleicht keine neue und innovative grafikhardware sonder innovative spielerlebnisse/prinzipien die ein viel besseres interagieren mit der cyberreellen umwelt ermöglichen. die grafik immer besser aussehen zu lassen ist da nicht wirklich der beste weg, wie n aktuelles oft erwähntes Spiel das mit "C" anfängt und mit "rysis" aufhört zeigt ;)
 
genau - PPU´s haben sehr wohl ihre daseinsberechtigung. Nur wird das derzeit viel zu stiefmütterlich gesehen.

Vergleichen wir die derzeitige fähigkeit physikalische gegebenheiten in echtzeit zu berechnen,
können wir den derzeitigen stand ungefähr mit den Grafikengines á la Quake III ansiedeln.
Um aber eine bessere physikqualität wie die grafische engine von Crisis zu bekommen, (der vergleich ist als reine analogie gedacht, - ich meien nicht die physik wie sie in Crisis ist - die ist nämlich npopch vergleichsweise (mit der natur) schlecht!) wird weit mehr abverlangt!
Wie hier m thread schon jemand meinte: es gibt nicht umsonst Grafikchips, und auch soundchips. Sonst könnte man ja alles über die CPU laufen lassen. Aber um realistische physiksimulationen zu erreichen, (man denke nur an die koplexen collisions abfragen!)

.... MUSS EIN EIGENER PHYSIK CHIP HER! .. :D


Wo der nun zu finden ist- ob das ein kriterium für eine produktpalette von grafikkarten sein wird, sei dahingestellt. Nvidia wäre ja ggf richtungsweisend dafür. Es würde dann bedeuten, das man evt. eine 8800 GTS mit einem kleinen, mittlern, oder grossem Physikchip bekommt.


also... schaut euch mal bewusst physikalische ereignisse an - derzeit sind sie wirklich noch recht primitiv - auch wenn doch reccht subjektiv, uns das schon unheimlich gut vorkommt. Zusammen hängen tut das wohl damit, das wir physik nur untersschwellig wahrzunemne ist, und nicht als oberste priorität in der Optischen abbildung zu finden ist

cheers!
 
Ohje, glaubt echt noch jemand an "brach liegende Resourcen auf der GPU"? :D

Sinnvolle Umsetzung von intensiver Hardwarephsik kann es nur geben, wenn diese auch für alle Spieler Vorraussetzung ist, das wiederum gibt es nicht, solange nicht alle Spieler eine karte haben und das gibt es nicht, solange Physikhardware nicht sinnvoll mehr Physik bietet - ein ewiger Kreislauf halt.

P.S.
Für alle, die über vernachlässigte andere Bereiche jammern.
 
Zuletzt bearbeitet:
Jetzt wo Nvidia Federführend ist, wird die Karte ENDLICH breiteren Anklang finden.
 
Also ich würde sowas nie einzeln kaufen. Aber eine GraKa mit PhysX würde ich einer ansonsten gleichwertigen GraKa ohne PhysX vorziehen - solange die Mehrkosten bei der Anschaffung nur gering (<10-20€) sind.

Kann man die Technologie eigentlich theoretisch auch in Windows nutzen? Zumindest in Vista SP1 (WDDM 2.1)? Schneller Multimedia oder z.B. mit AES verschlüsselte Container en- & dekodieren? Schneller Dateien (ent-)packen? Das wäre dann schon wirklich super.
 
Was man davon halten kann wenn Nvidia einen Konkurrenten aufkauft hat man ja erst vor einiger Zeit gesehen, weil die ULI-Chipsätze bei SLI schneller als der Nforce4 hat Nvidia erst die Treiberunterstützung gekappt, dann ULI gekauft und eingestampft. Selbiges bei 3DFX. Da kommt wahrscheinlich das gleiche raus.
Gruß
 
Schliesse mich BessenOlli an, einzeln waere mir es der Kauf noch nicht wert, aber wenn es sowieso auf einer guten Karte eingebaut waere und der Aufpreis jetzt nicht die Welt waer, wuerde ich so eine Karte eventuell kaufen.
 
Naja, wir dürfen gespannt sein, was dabei heraus kommt. Wenn sich das durchsetzt könnte es durchaus passieren, dass Intel oder AMD (oder beide, die haben ein Technologietausch-Abkommen) irgendwann ebenfalls PPUs rausbringen. Und wer weiß, was dabei herumkommt, wenn irgendwann Grafikkarten mit mehreren Kernen, CPUs (sowieso) mit mehreren Kernen und irgendwann auch PPUs mit mehreren Kernen zusammenarbeiten... Fehlt nur noch, dass zwei Kerne gegeneinander arbeiten (in unseren Gehirnen existiert auch ein Zwiegespräch statt) - und die erste echte KI ist vielleicht nicht mehr weit weg...

Okay, etwas weit vorausgegriffen, aber das ist doch das erklärte Ziel der meisten Hersteller und Programmierer...

An diese Kombigerät-Fetischisten: Was passiert wenn eins der Teile kaputt geht und das zweite eigentlich noch funktionieren würde? Ich bevorzuge daher immer, wenn es geht, die Teile getrennt. Wenn der Preisunterschied dabei so um die 10 Euro mehr für das Gesamtpacket ausmacht, ist das bei den Preisen die insgesamt für ein System anfällt, auch nichts mehr...
 
Zuletzt bearbeitet:
Ich hab hier immer das Gefühl, die meisten haben absolut keine Ahnung wovon sie da eigentlich reden.
Ich habe nun schon das dritte DualGPU System bei mir drin und auch eine PPU, und Crossfire skaliert einfach wunderbar, und wie in meinem ersten Post schon in dem Link verdeutlicht, gibt es auch von ATi interessante Wege.
Ich sehe in PPUs großes Potential, alle die dies für überflüssig halten, dürfen sich wieder melden wenn die PPUs sich durchgesetzt haben, ist so ziemlich das gleiche wie damals mit den ersten dedizierten Grafikkarten.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben