News ATis Physiklösung erst in 9 bis 12 Monaten

Auf der Computex 2006 lief doch ein testsystem, wo die X1900er für die grafik und die X1600er für physik verantwortlich war (in Crossfire).

Naja, man kann sehen wie sich die ganze sache mit der physik in spielen entwickelt, obwohl mir persönlich das nicht wirklich gefehlt.
In einem jahr kommen schon quad-core cpus, die wären mir lieber für physikberechnungen, als eine PPU, die 200€-300€ kostet...

Dazu muss man noch sagen, dass eine physikkarte einen externen strecker braucht (PCI-slot reicht nicht aus) und die kühlung ist aktiv.
 
Zuletzt bearbeitet:
Naja, auf jeden Fall muss man bedenken, dass in 9-12 Monaten Ageia sicherlich schon einen großen Vorsprung an Titeln und verkaufter Hardware hat, außerdem neheme ich an, dass die Physix kart zu dem Zeitpunkt noch höchstens 200€ kosten wird und vielleicht achon einen respinn des chips im 90nm verfahren enthalten
 
Bitte ATi, lass den Crossfire Physik Mist gleich ganz bleiben.
Was bringen mir tolle Effekte, wenn sie keine Auswirkungen auf das Spielgeschehen haben?
Effektphysik ist nun wirklich keine Lösung.
Die sollten sich lieber mit Ageia zusammenschließen und ihre Treiber aufeinander optimieren.
 
Ich finde diese Grafikkarten-lösungen ALLE nicht besonders toll, da die sich ja nur um die "optische" physik kümmern.

Die Lösung von Ageia, finde ich bislang die beste!

Und ein Core einer CPU ist bislang niemals in der lage diese hoch komplexe physik zu berechnen!
 
Mir geht dieses Physik/SLI/CF herumgetue vol am Wecker. Für den normalen Spieler wirds warscheinlich bald unleistbar einen vernüfntigen SpielePC zu besitzen. Ich habs mir ja einreden lassen, dass die 2 großen 2 Graka Systeme machen, als aber nvidia angefangen hat 2 GPUs auf eine Karte zu schmeissen hätten Sie damit wieder aufhören können. Wofür 2 sündteuere Grakas, wenn man alles auf eine packen kann? Und dies PhysX Hansen rauben mir sowieso den letzten Nerv mit ihren vollauf überteuerten irgendwas Karten und das nur um zu sehen wie realistisch eine Mülltonne umfällt --> DAS KÖNNEN ATI´s UND NVIDIAS auch.

PACKT DOCH ALLES AUF EINE KARTE IHR HARDWARE HERSTELLER/ENTWICKLER ... oder was auch immer.

Wenns so weiter geht muss ich mir fürs nächste Aufrüsten von meinem PC nen Bausparer aufnehmen.

Ich denk mal das mein Beitrag sowieso bald gelöscht wird, da ja diese ganzen Lösungen ja so innovativ und toll sind, 25 Grafikkarten im PC und dazu noch 12 PhysX Karten und realistisch anzeigen zu können wie ein Auto in die Luft geht....... Was solls!
 
Die können ruhig noch länger brauchen.
Bis das ausgereift ist und am Massenmarkt ankommt, vergehen Jahre!
 
MasterGizmo: nein, es ist nicht nur optische spielereien-Physik. Mit DX10 hat die Grafikkarte auch einen Rückkanal für diese Berechnungen, wenn die Graka also meint das sie irgendetwas in der Geometrie zwecks Physik ändern muss, dann bekommt auch das Programm diese Änderung mit und kann darauf reagieren.

Allerdings ist es mir lieber das NVidia und ATi sich noch ein wenig Zeit lassen: unausgereifte Treiber und Bugs ohne Ende können beide Firmen nicht gerade brauchen, Image-Schäden vor dem Release der neuen Killerchips sind tödlich. Wie man einen grandiosen Fehlstart hinlegt hat Ageia ja schon wunderbar gezeigt.
 
"Bis das ausgereift ist und am Massenmarkt ankommt, vergehen Jahre!"

Erste Spiele sind schon raus die das teilweise umsetzen udn mehr kommen Ende des Jahres und mit DirectX10 gehts dann richtig erst los. Ende des kommenden Jahres wird ein grossteil hier in irgendeiner Form Physikbeschleunigung haben.
 
Es wäre besser, man würde Ageia den Vortritt lassen. Moment, sie haben sich schon den Vortritt selber gegeben. :D
Bis das von ATI erscheint, ist Ageia schon lange auf dem Markt und UT2007 ist dann auch schon draußen.

Es stellt sich bis dahin nur noch die Frage, ob die CPU für den PhysX Chip immer noch der Flaschenhals weiter bleiben wird.

Von den Physiklösungen von ATI/nvidia halt ich rein gar nix. Ich kauf mir doch keine zweite Graka, die noch nicht mal zur Gänze ausgenutzt wird, nur damit ich etwas bessere Physik kriege. Dann brauche ich gleich ein Board, das zwei PCIex16 Slots hat, was schon mal für eine schlechtere Versorgung sorgt. Da ist Ageia mit PCI besser beraten, obwohl ich selber lieber auf eine PCIex1 Lösung warte (UND NICHT PCIex4).
Auch wenn eine X1600 reichen soll, die deutlich weniger kostet als der PhysX. Die Preise des PhysX müssten sich noch nach unten einstellen, so teuer können die in der Produktion ja nicht sein. Sind ungefähr so viele Transistoren wie bei der X700. Man müsste nur mal neuere Produktionsprozesse anwenden, dann gehts schon besser, sobald möglich.

Ein weiterer Punkt, der gegen die GPU-Physiklösungen spricht, ist Direct Physics. Ja, M$ plant einen Physik in DirectX zu integrieren und laut diversen Meldungen/Gerüchten, haben sie die PhysX/Novodex SDK lizenziert oder so ähnlich.
Obwohl, entweder ich hab mich verlesen, oder das stimmt, aber dass M$ nicht selber was zusammenschustert, wundert mich dennoch.
 
Und mit DirectX 11 kommt eh eine Microsoft-Lösung dazu auf den Markt, dann werden die heutigen Lösungen keine Rolle mehr spielen!

IMO also rausgeworfenes Geld, zumal ja jedes neue Game eine eigene Umsetzung dazu bietet, das eine mit Havok, das nächste mit Grafik-SLI......

PCB
 
@12:
Ja, dieser verdammte Fortschritt. Am besten man legt gesetzlich fest dass man eine DirectX Version mindestens 3 Jahre nicht weiterentwickeln darf. Damit die Spieler nicht andauernd neue Karten kaufen müssen.
Es war doch bisher immer so dass es alle Nase lang was neues gibt.. Und das ist auch gut so. Dann kann man die aktuellste Technik bewundern und die bis vor kurzem noch aktuellste günstig kaufen.
 
„ChrossFire Physics“ im ersten Satz.
Müsste CrossFire Physics heissen ;)
 
@kisser: Wenn ich den Artikel richtig verstanden habe, müsste aber Dual bzw. bald QuadCore dem aber abhilfe Tun, da dann ja genug Rechenleistung übrig ist um die PPU und die GPU anzusteuern u Befehle zu geben.

Also schließe ich, das eine PPU Karte erst sinnvoll ist, mit einer entsprechend guten R600-Karte und dann einem gutem DualCore (wie Conroe) oder am besten gleich ein QuadCore...

Und dann ist man arm u kein Mensch kann sich das leisten :freak:

Mfg
 
@3 die Asus Karte kostet derzeit um die 250€ bei Alternate!

Ich meine auch irgendwo gelesen zu haben das die Grakas nur Effektphysik beherschen! Wenn das stimmt ist es doch dumm sich zwei oder drei Grakas zukaufen um nur die hälfte von dem zu können was ne echte Pysikkarte kann!

Aber um mal wieder nen blick in die Ferne zu werfen, in ein paar Jahren ist der Chip standardmäßig auf Mobo verlötet!
 
das ist zu lange, bis dahin habens ich andere PPU karten schon weiter verbreitet und dann wird es schwer dagegen anzukommen.

bin aber auch atm dagegen wieder was neues zu bringen, da man erstmal die "alten" / aktuellen sachen optimieren sollte (mehr Dual Core und 64 bit software etc.)
 
oP2 schrieb:
@kisser: Wenn ich den Artikel richtig verstanden habe, müsste aber Dual bzw. bald QuadCore dem aber abhilfe Tun, da dann ja genug Rechenleistung übrig ist um die PPU und die GPU anzusteuern u Befehle zu geben.

Mfg


Der Flaschenhals liegt derzeit in der DX9 API selbst (mit D3D10 wird das besser), mehr CPU-Leistung hilft zwar, aber dann kann ich auch gleich die CPU wieder die Physik berechnen lassen. Ausserdem waere eine massive Erhoehung der CPU-Leistung nur um einen API-Flaschenhals zu umgehen doch mit Kanonen auf Spatzen schiessen. Deshalb wurde die API ja grundlegend veraendert.
 
@Chinamann1
Warum sollte man den Chip aufs Mobo löten? So ein Schwachsinn wird die Ausnahme bleiben, schließlich werden die Creative Soundchips auch nicht aufs Board gelötet. Die Mehrheit der Leute braucht halt kein Physx, was sollen die damit machen? Das?
Ich halte den Physikchip auf der Karte als das Beste, Steckplätze sind ohnehin genug da. Dadurch wird die Graka nicht belastet -> bessere Grafik und die CPU wird nicht belastet -> bessere KI.
 
@alex22
Du bist hier wohl einem Irrtum erlegen. Zwar find ich die PhysX Lösung auch besser, denn Steckplätze gibt es erstmal ausreichend, aber...

Die CPU wird ja belastet, lies dir nur die paar vorigen Beiträge durch, insbesonders den Thread bei 3dcenter.
Die Graka wird außerdem sehr wohl mehr belastet. Mehr Effekte bedeuten mehr Polygone und das bedeutet was? ;)
Ergo stimmt das mit der KI auch nicht mehr wirklich, was aber mit DualCore umgangen werden kann.
 
Zurück
Oben