News PhysX-Karten ab Mai im Handel

flavor82 schrieb:
Ja aber wenn alle spieletauglichen Grafikkarten so ein Chip drauf hätten würde es doch wieder keine Rolle spielen oder nicht.

Da wirst du sehr wohl am Preis der Graka bemerken. 125 Mio. zusätzliche Transistoren benötigen eine Menge Silizium und das ist teuer.

Man könnte natürlich die PPU auf die Graka sockeln. Das wäre eine Lösung. Dann kann man die PPU auf eine neue Graka übernhemen und muss keine Neue kaufen.


Noch ein Wort zu Crysis. Soweit ich weiß wird das die PPU leider nicht unterstützen. Die setzen auf ihre hauseigene Physikengie. Das heißt aber nicht, dass sie schlecht ist. Ganz im Gegenteil. Für eine Software-Engine ist sie verammt gut, wie man in dem neuen Video hier sehen kann.

Da kriegt man jetzt schon richtig Lust wie wild im Wald herumzuballern. :)
 
Schön geschrieben noxon, ich bin auch deiner Meinung.

Aber Silizium teuer? Hab ich was verpasst? :confused_alt:

Silizum kommt nach Sauerstoff am häufigsten auf der Erde vor, da dürften die Kupferleitungen auf dem PCB mehr kosten.
 
@noxon
Nach den ersten paar Sekunden hätt ich fast ausgemacht und dir einen Link zur nicht-abgefilmten HD-Version des Trailers gegeben ;). Abba das is ja garnicht der alte Trailer mit den Köpfen am Ende, der ist neu! Sabber *g*.

Ansonsten hoffe ich, dass PhysX nicht nur technisch, sondern auch spürbar optisch alles dagewesene in den Schatten stellt, auch jede Software-Engine wie die von Crysis. 250 Eur gibt sicherlich keiner für nur etwas bessere Physik aus, da muss schon ein Kracher kommen. Wenn ich mir anschaue, was ein 1,5 Jahre altes Half-Life 2 mit 2,5 Ghz CPU zustande bringt, frag ich mich ob sich die Physik künftiger 5 Ghz Dual- oder gar Quadcores so viel schlechter anfühlt als die der Physik-Karten.
 
Zuletzt bearbeitet:
flavor82 schrieb:
Ja aber wenn alle spieletauglichen Grafikkarten so ein Chip drauf hätten würde es doch wieder keine Rolle spielen oder nicht.....
Nein, eben nicht, denn du musst den neuen Physikchip dann eben mitbezahlen, obwohl die ihn nicht bräuchtest. Die All-In-Wonder-Radeon kostet mit ihrem TV-Tuner immer deutlich mehr, kaufst du dann eine neue AIW musst auch den neuen TV-Tuner mitkaufen und mitbezahlen. ;)
 
wenn ich die ersten Komments lese kommt mir das Kotzen auf, was so manche hier von sich geben....nein, sogar die Rede von Beukottieren...was vermutlich Boykottieren beudeten soll. Wie kann man bitte einer Firma solchen Wirrwarr vorwerfen OHNE auch nur ein einziges mal das Gehirn in Betrieb genommen zu haben!

Wieso sollte man Boykottieren? Was haben sie getan? Sie bringen eine Karte was den "echten" und nicht nur eye candi leisten sollte, auch wird sie die CPU, GPU entlasten da es schon einige Spiele gibt die die Graka ausreizet und vor allem was soll denn DualCore packen - etwa auf der Softwareebene? Ja lassen wir Shader auch mal auf der Softtwareeben berechnen, auf die Gesichter bin ich mal gespannt.
Die Karte von Ageia ist HARDWARSEITIG schon auf die Berechnungen ausgelegt, genauso eine XFI von Creative, genauso manche MPEG Decoder oder CAD Karten etc pp! Das Chipdesign unterscheidet sich also vollkommen einer CPU, GPU etc - glaubt ihr etwa, mit quadCpu schicken wir Graka in den Ruhestand?

Was alle 2 jahre neue Physx Karte? Logisches Denken sagt mir, das so eine Karte ein längere Haltbarkeit in der Performance hat, als Grakas, ich setze es gleich wie eine Soundkarte.

Havok für die "boykottierer"
Physx für die die wissen was sie da kaufen
Onboardsound die nicht mehr brauchen als EAX
Audigykarten für EAX-Fans

mehr muss man echt nicht dazu sagen *kopfschüttel*

Zu der Karteq@ Ich freue mich wenn sie im Preis auf 150€ gehen würde, wäre es eine Überlegung wert, was mich aber stört ist definitiv der Aktivkühler. Bin mal auf das Release und erste Tests gespannt.
 
Hab mir gerade die Beispielvideos angesehen (in der Arbeit ging's nicht ;-) Wahnsinn! Insbesondere CellFactor zeigt, was die Karte wirklich drauf hat. Da können Softwarelösungen und die Havok-Physikengine einpacken. Ich wage die Prophezeiung, dass nächstes Jahr kein ernsthafter Gamer mehr ohne auskommen wird. Ich weiß in jedem Fall schon, was ich mir zu Weihnachten schenken werde ;-)
Da wird der Preis sicher auch stimmen, aber bei entsprechendem Spieleangebot wär ich sogar bereit die 300 Euro zu investieren.
 
Armes Deutschland...

Ich kann mich noch gut erinnern, wo es damals speziell für, ich glaube es war FarCry, Demomaps mit physikeffekten gab.
Dort konnte man sich damals schon wunderbar austoben und satte physikeffekte nutzen, bei HL2 genauso.

Ich denke es ist prinzipell möglich moderne physikeffekte auch weiterhin ohne eine solche Karte berechnen zu lassen.

Sollten viele User sich eine solche Karte zulegen können wir davon ausgehen das wir in Zukunft noch wesentlich mehr "nötige" neuerungen zu sehen bekommen, vllt. gleich mal eine Karte für Raytracing???? Super was kostet dann ein NormaloRechner?? 3000€ ??

Wir entscheiden was auf dem Markt überlegt und ich denke diese Karte sollte man sich zurecht nicht kaufen, weil man einige der relevanten Befehle auch gut in die CPU einbauen kann damit diese die bearbeiten kann.
AMD wird sicherlich hier als erstes den Schritt machen da die Herren ja schon immer fortschritlicher im Gamingbereich waren "3D!now"

Es ist stellenweise auch alles eine bedarfsfrage, habe mir natürlich auch einige Videos angesehen und was die Karte "kann" ist ihr geld noch lange nicht wert ähnliche effekte habe ich auch schon ungescripte auf meiner Maschine zum laufen bekommen ohne Probleme, dass ist nur augenwischerei.

Keine Frage Physik muss sich weiterentwickeln aber das geht auch Ohne Karte!

MfG
 
@Aktivkühler-Problematik: Ich denke mal, da wirds Lösungen geben, evtl. haben die ja auch sinnvolle Lochabstände, sodass man seine alte Zalman-Heatpipe ausm Schrank kramen kann ;) Habe bist jetzt lediglich was von ~25W gelesen, dass lässt sich doch auch passiv handlen!
 
@Tronx: Bin voll deiner Meinung, das Problem ist, dass hier viele einfach meinen ein Statement abgeben zu müssen,
ohne wirklich eine Ahnung zu haben.
 
Ich habe grad mal ein test gemacht. Far Cry editor, einen 288 Kisten Block gebaut (6x12 Kisten, 4 stockwerke hoch), Zaun drumherum für nett viele Kollisionen und dann mit dem Raketenwerfer drauf. Ich habe dabei gemerkt das in der Luft herum fliegende Kisten eigentlich kaum Leistung brauchen, aber sobald Kollisionen ins Spiel kommen (Zaun) lagged der Editor mit unter 10fps. Weil die Kisten nicht ganz gerade stehen ruckelt es sogar bevor ich draufschiesse, weil die Kisten ein bisschen wackeln. Prozessor ist ein 2,6 Ghz P4 Northwood, also auch nicht so alt.
 
Ich halte viel von dieser karte und das sie nicht onboard ist finde ich gut wie schon gesagt wenn es nicht so wäre müsste man immer die PhysX-Karte mit bezahlen
es wurde auch gesagt dass man das auch auf software basis machen kann.
man würde nicht eine eigene karte herausbringen wenn das möglich wäre vielleicht wird es einmal möglich sein aber derzeit hald noch nicht.
und wenn die spiele-entwickler will das wir die PhysX-Karte kaufen dann bleibt uns garkeine andere wahl kein richtiger gamer will spiele nicht auf max. details spielen (denn wenn es nicht so wäre würde keiner 500€ ausgeben für eine grafikkarte)

so und jetzt schlaft schöööööööön:)
 
Zuletzt bearbeitet:
N-rG schrieb:
Armes Deutschland...

...

Ich denke es ist prinzipell möglich moderne physikeffekte auch weiterhin ohne eine solche Karte berechnen zu lassen.

Sollten viele User sich eine solche Karte zulegen können wir davon ausgehen das wir in Zukunft noch wesentlich mehr "nötige" neuerungen zu sehen bekommen, vllt. gleich mal eine Karte für Raytracing???? Super was kostet dann ein NormaloRechner?? 3000€ ??

....

Keine Frage Physik muss sich weiterentwickeln aber das geht auch Ohne Karte!
....


immerhin im ersten satz kann ich dir nur zustimmen. soviel schwachsinn in einem thread hab ich schon ewig nichtmehr gelesen... danach gehts ja auch bei dir gleich richtig los:

raytracing also auf der cpu! na klar. macht man seit jahren so. funktioniert wunderbar. fotorealistisches bild kommen nach stunden aus der riesen renderfarm. und fürs nächste muss man nur genau so lange warten!
vielleicht schaffen wir das in 300 jahren ja in echtzeit auf der cpu! das wär doch mal was!!eins1


das es am ende natürlich wesentlich günstiger ist einen spezialisierten chip fürs raytracing zu benutzen ist natürlisch scheiß egal. der wird schließlich auch seine 300€ kosten!! da spar ich doch die 300€! ok, sieht dann scheiße aus, aber immerhin keine 300€ bezahlt! schließlich könnte ich dann die 300€ in ne cpu investieren!!! sieht zwar dann immernoch schlechter aus als mit raytracingkarte, aber mit der cpu kann ich viel mehr machen!!!! auch windows ist dann viel schneller!!1 da würde mir die raytracingkarte ja garnichts bringen...


also wiegesagt, armes deutschland. da kommt der fortschritt, und was machst du? du wartest bis man das selber auch mit der alten technik erledigen kann... super idee... is halt billiger... zwar nicht beim preis pro leistung - aber dann würde es ja auch günstiger heißen...
 
Zuletzt bearbeitet:
Leider verstehen einige nicht was an Potenzial dahintersteckt! :mad:
Ich habe irgendwo gelesen, das die PPU die Physik um den Faktor 40 beschleunigen kann!
Ein Dualcoreprozessor ist ein Witz im Vergleich, er ist nicht darauf spezialisiert, beschleunigt um den Faktor 1,8.

Man könnte sich genauso fragen weshalb z.B. die 3D-Beschleunigung nicht derzeit
der zweite Prozessor übernimmt!?
Er kann nicht, nichtmal annähernd, die Leistung eines ATI oder Nvidias erreichen,
daher die Daseinsberechtigung der 3D Beschleuniger!

Wenn sich die Physx-Beschleunigerkarten durchsetzen, was ich sehr hoffe, werden wir ein Revolution in der nächsten Spielegeneration erleben!
 
@167: Need for Speed 2 und Half-Life liefen auch wunderbar ganz ohne 3D-Grafikunterstützung (Software-Rendering), aber wer will heute noch ernsthaft seine Grafikkarte mit 3D-Beschleuning missen? Das es auch ohne geht ist klar, aber wer will das, wenn's mit einem spezialisierten Chip doch viel effizienter geht?
Die PhysX-Karte ist der nächste logische Schritt, denn die CPUs limitieren die Möglichkeiten viel zu stark. Wieviele Rechenoperationen schafft denn selbst eine Top-CPU parallel? Selbst mit Erweiterungen wie SSE2 sind das gerade mal 16. Jede GPU und auch die PhysX schlägt sie da um Längen. In diesen Bereichen geht's eben um reine Gleitkommaleistung mit vorgegebenen Algorithmen. Bei 1000 Objekten macht ja die CPU vielleicht noch brav mit, aber bei größeren Dimensionen wird sie einfach nicht mehr mitkommen. Dafür muss sie dann einfach zu viele Runden drehen.
Und von wegen Preis: Ich hab letztens eine Anzeige gesehen für einen der ersten 386er mit CGA-Grafik und on-board sound. Rate mal den Preis: 150.000 ATS, das sind heute über 11.000 Euro! Heute kann man einen billigen Bürorechner bereits für 300 Euro haben, früher ein Ding der Unmöglichkeit. Das heisst, die Rechner sind trotz aller Zusatzkarten wesentlich billiger geworden.
Die Hersteller müssen neue Hardware einführen, um überhaupt noch auf ihre Kosten zu kommen.
Für 2.000 Euro bekommt man heute ein Topgerät, sind dann 300 Euro zusätzlich wirklich so viel? Und in einem Jahr kosten die Dinger ohnehin nur mehr 150 Euro. Das fällt dann wirklich nicht mehr ins Gewicht, zumal auch die Preise der anderen Komponenten ständig sinken.
 
Zuletzt bearbeitet:
v_1 schrieb:
Silizum kommt nach Sauerstoff am häufigsten auf der Erde vor, da dürften die Kupferleitungen auf dem PCB mehr kosten.

Naja. So war das nicht gemeint. Es handelt sich ja auch nicht um irgend ein Silizium-Stück.

So ein Waver ist nicht einfach herzustellen. Das Silizium muss zuerst einmal superrein sein. Dann muss es paradoxerweise wieder hochpräzise verunreinigt werden (dotiert) und auch sonst sind noch viele weitere Schritte, wie diverse Beschichtungen, notwendig. Er muss auch absolut eben sein. Es dürfen höchstens ein paar Atomlagen hohe Unebenheiten entstehen. Soetwas ist nicht einfach zu fertigen.

So ein Waver kostet also schon eine Kleinigkeit. Sonst wären die Prozessoren ja nicht so teuer.

Und je mehr Transistoren so ein Chip besitzt um so höher ist die Fehlerwahrscheinlichkeit.
Damit steigt auch der Ausschuss und große Teile des kostenbaren Wavers sind dahin. Wenn man wirklich PPU und GPU zusammen auf einen Chip unterbringen will, dann wird der ganz schön teuer werden. Auf jedenfall um einiges teurer, als die einzelnen Chips zusammen.

Außerdem gäb's dann auch wieder Probleme den Chip ausreichend gut zu kühlen, da viel zu viel Hitze auf einer kleinen Fläche erzeugt wird.
Daher sind getrennte Chips egentlich schon eine gute Sache. Besonders, wenn sie unterschiedliche Produktzyklen haben, was hier definitiv der Fall sein wird.
 
Zuletzt bearbeitet:
Das primäre Problem ist doch das denken der Benutzer.

Wenn ich schon sprüche lese wie "Ja das wird doch wieder billiger umso mehr user das kaufen"
Das ist das typische "ich kann keine 2 Meter weit denken" aber hauptsache kaufen&haben syndrom.

Grafikbeschleuniger haben damals auch kaum mehr als 120DM gekostet, dass weiß ich noch von meiner Riva128ZX von Diamond die damals nigel nagel neu war.
Und was kosten moderne beschleuniger heute? 600€+, tendenz steigend!
Das wird mit den Physikchips nicht anders laufen, aber ändert wird sich doch hier eh nichts.

Anstatt mal in eine effiziente Richtung zu tendieren muss bei den Menschen immer alles größer, teurer und verbrauchsstärker werden, genau das falsche denken.
 
@ alle die denken Sie brauchen/wollen die Karte nicht

Dann lasst es, kauft diese Karte nicht, gründet einen Verein gegen Ageia aber Müllt diesen Thread nicht mit euren belanglosen gejammer zu :mad:

@N-rG

Ich weiß nicht wo du gelebt hast, aber hier in Deutschland hat z.B. eine Voodoo beim Release ca. 500 DM gekostet, was ja bekanntlich etwa 250 EUR sind.
 
Zuletzt bearbeitet:
hi,
@N-rG: nunja ganz so stimmt das nicht, wenn ich an meine Matrox Mysticque 3D denke, habe ich für die 2MB Variante schon 300 DM oder 400 DM hingelegt und für weitere 2MB Speicher nochmal 170DM.
Für die Matrox M3D hab ich 180 DM gezahlt (war eine Zusatzkarte wie die Voodoo aber im vergleich zu dieser damals deutlich billger (die Voodoo lag zu der Zeit damals wenn ich mich recht entsinnen noch bei 300 DM oder 350 DM) ).

Aber wenn ich mich recht entsinne war doch die ZX die "kleinere" variante und die normale Riva128 hatte doch mehr gekostet, ich dächte die hätte damals so um die 300 DM gelegen.
Die Riva TNT war jedenfalls auch in der Preislage und die Voodoo2 Bretter haben ja dann bei 400 DM gelegen im Mittel mit 8MB, 12 MB waren, glaube ich, nochmal 100 DM teuer.

Die Riva TNT 2 Ultra (?) ging ja dann schon eine ganze ecke weiter im Preis und lag um die 500 bis 600 DM rum und dann die Geforce256 und Geforce2 waren dann um die 900 DM angesiegelt.
Dern"Vogel" zur damaligen Zeit schoss ja dann die Geforce2Ultra für 1600DM ab, aber mittlerweile gehn ja die Highend-Karten wieder in die Richtung.

Aber bitte nicht haun, die Preise sind jetzt nur aus dem Gedächtnis und ist ja nun auch schon eine ganze Ecke her, also kann es auch sein das nun einige nicht wirklich stimmen.
Jedenfalls gab es zwar mal eine Zeit wo Kombi-Grafikkarten billiger waren, aber imho lag das eher daran das der Markt damals vorallen aus normalen 2D karten und 3D Zusatzkarten (Voodoo) bestandt und eben Nvidia mit ihren Kombi-Brettern fuss fassen wollte.

Aber im Grunde hast du schon Recht, wenn es zu dem Preis in ausreichenden Mengen gekauft wird, geht der Preis nicht runter, sondern wird Stabil bleiben, zumindestens solange es keine Konkurenz / Nachfolger gibt.
Erst bei mangeldem Interesse am Produkt wird der Hersteller über Preissenkungen versuchen, die Produktakzeptanz beim Käufer durch einen niedrigeren Preis zu steigern.

Wegen Effizens: Im Grunde nicht schlecht, aber Fortschritt besteht nunmal eher am Anfang aus grösser und teuer.
Pferde waren damals auch Effizenter und Sicherer als die Eisenbahn.
Trotzdem war diese Schneller und hat sich am Ende durchgesetzt.

Genauso wie das Flugzeug, hatte am Anfang auch nicht gerade soviele Vorteile gegenüber der Eisenbahn.
Oder das Auto, die Computermaus, die 3D Grafikkarte usw.

Die Frage ist am Ende doch welche möglichkeiten neue Erfindungen bieten und die Physikbeschleunigung gehört meiner Meinung nach zu der Gruppe welche viele Möglichkeiten, vorallen in der Zukunft bieten wird.
Ob nun diese Karte nun wirklich der "Überbringer" wird ist am Ende egal für den Fortschritt selber egal, solange sie die Möglichkeiten und das Potenzial der neuen Technik aufzeigt.
Gut als Verbraucher, hoffe ich natürlich das die Karte a) wirklich was bringt und b) sich evt investiertes Geld auch lohnt.

Und wegen intigierte auf X.
Meiner Meinung nach gehört dies eher auf den Prozessor selber aber vieles was mittlerweile im Prozessor ist, war früher auch extra auf dem Mainboard untergebracht.
zbsp: 2nd Level Cache, mathematischer Co-Prozessor, Speichercontroller und wohl vielleicht noch ein paar andere Dinge.
Aber im moment wäre es a) noch zu teuer, b) zu aufwendig und c) ist dies, da sich die technik ja noch nicht durchgesetzt hat, auch garnicht nötig.
Imho wird dies aber irgendwann in ein paar Jahren aber der Fall sein.

Vielleicht wird sich sogar 2 Sachen rausbilden a) eine Physikbeschleunigung in der CPU welche Spielrelevante Physik beschleunigt und b) Eyecandy Effekte welche Physikalisch korrekt von der Grafikkarte mit entsprechenden speziallisierten Shader-Einheiten berechnet werden, aber welche eben keine Auswirkungen haben.
Ich denke mal dies wäre am Ende eignentlich die Optimalste Lösung, jedenfalls so wie ich das verstanden habe der Technik die dahinter steckt.

Mehrpack
 
@Butterbemme:

Ich sehe gerade, dass auf gametrailers.com der Crysis-Trailer auch in einer viel besseren Version vorliegt. Allerdings hat der keinen Sound. :/


Und ein Cellfaktor-Trailer gibt es dort auch. Ich wusste gar nicht, dass dies ein PhysX-Only-Game ist. Das kann man ohne Karte anscheinend gar nicht spielen. Es ist aber wohl auch mehr eine Tech-Demo, als ein Spiel.

Das Video selbst enthält aber kaum neuere Szenen als das von pcper.com. Es ist aber halb so groß, doppelt so lang und von besserer Qualität. :)
 
Zuletzt bearbeitet:
Zurück
Oben