News ATis GPUs besser in Physikberechnungen?

Also, hab ich da was verpasst?

Meines wissens nach ist die Physik Berechnungs Karte da um die CPU zu entlasten indem es die Physik berechnungen übernimmt und das in ein vielfach höheren geschwindigkeit berechnet als die CPU.
Aber wenn kein Physik Berechnungs Karte da ist berechnet es die CPU bzw. ein kleienr teil die GPU, oder etwa nicht?
Lasse mich gerne belehren.
 
Aber wenn kein Physik Berechnungs Karte da ist berechnet es die CPU bzw. ein kleienr teil die GPU, oder etwa nicht?
Lasse mich gerne belehren.
Ja und nein! Klar berechnet es dann die CPU, allerdings sind dann nicht alle Effekte möglich wie mit einer PPU. Vergleichbar vieleicht mit dem EAX 5.0 Sound einer X-Fi und dem Onboard Sound von Realtek. Sicherlich hast du mit dem Realtek Chip auch Sound aber nicht so geil wie mit der X-Fi.
 
FreddyMercury schrieb:
Ausserdem will ich beweise habne, das die Karten von ATI wirklich besser sind!
Recht hat er. *Hand reiche*
WolleXPD schrieb:
brauche ich denn nun ein sli board für eine Physx-Karte ???
weil ich halte nich soviel von sli,und würde mich freuen wenn
ein normaler PCI-E steckplatz ausreicht ????
Nein, brauchst du nicht. Erstens werden die ersten PhysX Karten für PCI erscheinen und später für PCIex4.
WolleXPD schrieb:
wird es so wie bei grafikkarten laufen das alle 3 bis 4 monate ne bessere zu haben is ??
Und woher soll das jemand wissen?
Natürlich nimmt jeder mit einer gewissen Spekulationsfähigkeit an, dass PhysX Karten eine deutlich längere Haltbarkeit haben werden als Grakas und dennoch kann dir keiner sagen, in welchen Abständen in Zukunft neue Karten rauskommen werden. Vergleiche es am besten mit den Soundkarten bei Creative.
WolleXPD schrieb:
wenn ja dann, kann ich nur hoffen das nvidia oder ati ne dualcore Graka herstestellt wo der Physx-Chip schon drauf is !!!
Oh mein Gott!!! Bitte nicht!! Bitte vorher denken, bevor du dir sowas wünscht. :freak:
 
Und wieso soll er sich das nicht wünschen? Okay bei den ersten 3D-Karten hat man auch versucht gleich noch Soundchips zu verbauen, war aber ein Flop. Aber: PCIe 16x bietet genug Bandbreite, eine Dualcore-Grafikarte mit zwei spezialisierten Cores wäre zumindest eine nette Wunschvorstellung, die Anforderungen sind ja scheinbar nicht soweit voneinander entfernt. Zudem könnte der Support der Physikeffekte wesentlich vergrößert werden.

Notfalls könnte auch ein Spezialchip auf der Grafikkarte ihren Platz finden. Machbar wäre es ja, wie man an den Dual-Chip-Karten sieht. Von den ganzen Treiberfragen mal ganz abgesehen. Ein Treiber ist immer noch besser als zwei. Zudem würde das eine Steckkarte einsparen, die kleinen Gehäuse sind sowieso auf dem Vormarsch. Es gibt einige Vorteile, außer vielleicht den Kostenfaktor, was aber durch eine Massenproduktion sicher nahezu aufzufangen wäre. Und billig ist auch die Standalone-Karte nicht, Spekulationsfähigkeit hin oder her, bisher eben alles Spekulation, wie sich diese wirklich entwickeln wird. Lediglich die Entwicklung ist einfach noch nicht soweit bei den Grafikchip-Herstellern, von daher stehen momentan nur Grafikchip selber oder Standalone zur Verfügung. Aber der Trend geht ja wie gesagt eher zu weniger Peripherie als zu mehr. Es ist als eher eine Frage der Zeit.

Jedenfalls würde eine Zusammenarbeit die sich anbahnende Formatstreitigkeiten verhindern. Im Moment sind im Grunde drei verschiedene Systeme angekündigt, weil jeder Hersteller profitieren will, was letzendlich dem Kunden der aufs falsche Pferd setzt teuer zu stehen kommt. Man erinnere sich an 3dfx-Zeiten, entweder Glide mit Voodoo2 oder besserer DirectX-Support mit Riva128. Und je nach Spiel entweder die eine oder die andere Schnittstelle. Das muß nicht unbedingt wieder sein. Denn billig war solche Hardware noch nie. Ich hoffe jedenfalls es braut nicht jeder Hersteller sein eigenes Süppchen.
 
Zuletzt bearbeitet:
HappyMutant schrieb:
Und wieso soll er sich das nicht wünschen? ...
1. Auf die Karte passt nur ein Kühler, je mehr Kochplaten auf der Karte sind, desto mer Wärme muss dieser eine Kühler abführen und
2. Noch viel wichtiger: Willst du jedesmal, wenn du eine neue Grafikkarte kaufst einen neuen Physikchip erneut bezahlen müssen, obwohl dir vielleicht der alte noch reicht? Ich habe bereits im letzten Thema den Vergleich mit Radeon All In Wonder gemacht. Ein treuer AIW-Kunde, der vielleicht jedes Jahr eine neue Grafikkarte kauft, kauft auch jedes Jahr einen neuen TV-Tuner, obwohl ihm der alte TV-Tuner vollkomme reichen würde. Soundchips auf Grafikkarten sind deshalb unsinnig, weil ich in meinem aktuelllen, weniger aktuellen System (Athlon XP, Radeon 9700) noch eine Soundblaster Live! habe und keine Lust gehabt hätte für jede neue Grafikkarte eine neue Soundkarte mitkaufen zu müssen, gleiches gilt für mich in Zukunft auch für Physikkarten. ;)
 
Zuletzt bearbeitet:
Okay, gute Argumente. Wenn aber ein Chip beides übernehmen kann, was ja momentan so aussieht, warum nicht die angedachte Dualcore-Variante? Der zweite Core könnte dann flexibel auf die Anforderungen von Grafik- und Physik-Berechnung reagieren. Ich finde das schon recht sinnvoll. Zumal ja scheinbar der Physik offenbar egal ist auf was sie berechnet wird. Die Chips ähneln sich nunmal in diesem Fall sowieso, es ist und bleibt ein recht unspezieller Spezial-Chip. Ich halte die PhysX immer noch für einen Irrweg, der in wenigen Jahren eh mit der Grafikkarte oder der CPU verschmolzen sein wird. :D
 
Davon kannst du lange träumen, schätzungsweise 20, 30 Jahre, dann will Intel vorraussichtlich einen Hundert-Core-Chip mit haufenweise hochspezialisierten Spezial-Cores für jedes Einsatzgebiet entwickelt haben - aber Vorsicht, einige Kritiker sagen, das ganze Projekt sei nur ein Fake zu Moores Geburtstag gewesen. :p

Dass ATI und Nvidia dafür marktschreien, Shaderlogik könnte Physik genauso effizient berechnen wie eine echte PPU bedeutet noch lange nicht, dass das wirklich so wäre. Shader sind nur sehr flexibel einsetzbar. Du kannst damit auch Sound berechnen, wirklich, das wird auch gemacht. Es ist effektiver, weil so viel Logik verbaut ist, dass trotz deutlich weniger Effizienz mehr Effektivität erlangt wird, für wenige Soundlabore, die die Leistung brauchen baut niemand extra Spezielsoundkarten mit so viel Leistung, also nahm man früher immer nur die CPU, heute nimmt man dort auch mal eine aktuelle Grafikkarte für den Sound.

Die Shader sind es, die nicht so spezialisiert sind, Physik hingegen ist speziell. ;)
 
Zuletzt bearbeitet:
Okay, dann verbleiben wir so: Mal schauen was die drei Mitbewerber zu Stande bringen und schauen dann ob eine 256MB Physik-Karte nicht doch ein durchschlagender FPS-Erfolg wird ala 3dfx Voodoo. Und ob ATI wirklich besser ist als nVidia. Und immerhin fühlen sich die Grafikkarten-Hersteller irgendwie bedroht davon. ;)
 
FreddyMercury schrieb:
Schaut euch doch Oblivion an. Wie war das? Auf höchsten Details mit hoher Auflösung grade mal ein paar FPS? Ich finds kacke, was die hier alles für einen Wirbel machen.

Bei Oblivion limitiert sogar ein FX-60 da die PC Version nicht auf Dual Core Prozessoren optimiert wurde (sondern nur die XB360 Version).
 
Das Problem ist, dass die PhysiX Karte ein RISC Prozessor ist, und keine x86 CPU. Der Vorteil einer RISC CPU liegt in ihrer Effizienz. Sie kann wesentlich höhere Leistungen erreichen, weil sie das, was sie kann, wesentlich besser kann. Darum ist es so unendlich uneffektiv diese Effekte auf der CPU emulieren zu lassen.
Der Vorschlag das auf Grafikkarten auszulagern wird wohl erst dann sinnvoll wenn die Karten wirklich so viel Leistung im Überschuss haben. Mit den aktuellen Karten wird das wohl nichts, und ein SLI oder CF gespann aufzubauen, damit man eine der beiden Karten für Physikalische Berechnungen abkommandieren kann, halte ich für nicht so gut. Wegen Strom und Geld.

Ich hoffe, dass wenn man diesen Physik Prozessor verwendet, dass Programme, wie Photoshop, Premiere, 3dsm, maya usw. diesen auch als Co-Prozessor benutzen können.

Gruß, GuaRdiaN
 
Also ich finde Oblivion nutzt bisher am Besten die Dualcoretechnik aus.
Teilweise bis zu 70 % geht der 2te Core hoch, der andere ist konstant bei 100 %.

Wenn das nicht Dualcoreausnutzung ist was dann ?

Grüße
Sascha
 
Was wäre denn wenn man auf eine Dual-GPU Grafikkarte nicht einen zweiten Grafikprozessor lötet sondern
den Ageia Chip ?
Man braucht nur einen PCIe Steckplatz, ein x16 reicht für die Datenmenge massig aus, man hat alles in einem Produkt.

Das mindert allerdings nicht nur die Herstellungskosten sondern auch den Gewinn der Hersteller, womit wir schon beim
RIESIGEN Haken sind der dieser Lösung entgegensteht.

GuaRdiaN schrieb:
Ich hoffe, dass wenn man diesen Physik Prozessor verwendet, dass Programme, wie Photoshop, Premiere, 3dsm, maya usw. diesen auch als Co-Prozessor benutzen können.

Gruß, GuaRdiaN

Wozu sollte Photoshop den Ageia benutzen ??? Die 3D Rendersoft, OK. Aber Photoshop
 
Zuletzt bearbeitet:
Wieder eine Einnahmequelle für die Grafikkartenhersteller. *Daumen*
 
Also so wie ich das verstanden habe.

- Diese Technik wird erst so in 1-2 Jahren wirklich geil sein :evillol:, weil:
Dann sind die X1800/x1900 karten veraltet und werden nicht viel kosten, bzw. man hat schon eine und kauft sich ne neuere für die Grafik-berechnung und muss die x1800/x1900 nicht gleich wegschmeissen, sondern kann sie als Physikkarte weitergebrachen.
- Man braucht keinen Crossfire verbund, wenn die karte einfach im 2. PCI-e 16x Steckplatz sitzt, reichts.

Ganz einfach, z.B.:
Man besitzt heute ne X1800xt und ein Asus A8N-SLI Deluxe. In 1-2 jahren ist die Karte veraltet und man wil sich ne neue besorgen. Gut. Kauft man sich ne X2800 (oder so :rolleyes: ) und anstatt die alte karte weg zu schmeissen, gebraucht man sie weiter als Physik karte....

Einfach Genial, wie ich finde xD..

Greez
 
Anstatt immer wieder noch schöner dargestelltes Wasser zu bewundern, werden Spielemagazine wohl dazu übergehen, die neuen Physikspielereien zu bewundern ("Oh, die Fässer rollen jetzt noch realistischer!").

Physikberechnungen als Verkaufsargument für eine zweite Grafikkarte - das kommt nVidia und ATi wohl sehr gelegen. SLI bzw. Crossfire halte ich derzeit für überflüssig und vor allem zu teuer.

Eine günstigere DualCore GPU Lösung wäre sicher vorzuziehen, gepaart mit niedrigerem Energieverbrauch, wie man das bei Intel und AMD beobachten kann. Für Physikberechnungen sollten in einem DualCore CPU + GPU System genug Ressourcen bereitstehen, ohne den Geldbeutel im Bezug auf Hardware- und Energiekosten zu sprengen.

Abseits davon frage ich mich, ob es wirklich soviel Physik in Spiele braucht, um dem Spieler ein intensives Erlebnis zu liefern.
 
Dana_X schrieb:
Also ich finde Oblivion nutzt bisher am Besten die Dualcoretechnik aus.
Teilweise bis zu 70 % geht der 2te Core hoch, der andere ist konstant bei 100 %.

Wenn das nicht Dualcoreausnutzung ist was dann ?

Grüße
Sascha

Gibts dafür Beweisbenchmarks?

Bisher hab ich nämlich keine Anzeichen gesehen das Oblivion wirklich DC CPUs unterstützt. Hab im 3DC Forum auch davon gelesen das einer bei seinem X2 4200+ den zweiten Core mit extra Programmen belastet hat, sich das aber nicht in Oblivion bemerkbar gemacht hat.
 
Deinorius schrieb:
Ich bin mit den Grafik-Physik-Lösungen kein bisschen zufrieden. Da der hauptlimitierende Faktor hauptsächlich die Grafikkarte ist, muss die gesamte Leistung der Grafik zustehen. Da ist kein Platz für Physikberechnungen.

Es ist so schon schlimm genug, aber zu schreiben, dass in einem SLI/CF Verbund, nur eine Graka die Grafik und die andere nur die Physik übernimmt, dreht sich mir der Magen um. :freak: Die Physikberechnungen können die Graka nicht vollständig nutzen. Welche Shader werden dafür verwendet? Pixel oder Vertex? So oder so bleiben die anderen Shader und der gesamte Rest der Graka unbenutzt.

Außerdem bleibe ich noch bei meiner Meinung. Eine PhysX Karte arbeitet weitaus effizienter. Ist in Zukunft günstiger zu produzieren, lässt sich leichter kühlen und verbraucht weniger Strom. Daneben kann eine PhysX Karte länger verwendet werden als eine Graka, da je nach Anwender die Leistung einer PhysX auch schätzungsweise 5 Jahre lang ausreichend Physik Leistung bringt. Je nach Entwicklung kann sich das zwar ändern, aber es ist eher möglich als bei der Grafik.
Ich stimme Dir zu und ich stimme Dir nicht zu, allerdings nur in einem einzigen Punkt und zwar ist in meinen Augen der Nutzen von SLi/XFire heut zu Tage enttäuschend gering. Wenn Physikberechnungen nun ein Dual GPU System endlich einmal voll auslasten könnten, würde dieser Dual GPU Scheiß mal nen 2. Frühling erfahren. nVidia hat doch schon selbst in dem Zusammenhang von SLi 2.0 gesprochen, wenn ich nicht irre!

Aber prinzipiell halte ich auch mehr von ner extra Physik Karte, alles andere sind nur Kompromisse, die wärmer, lauter und langsamer sein werden.
 
Es ist wirklich interessant. Jetzt geht hier das gleiche Geplapper wieder los, wie vor ein paar Tagen in dem PhysX-Thread. Zuerst einmal melden sich alle zu Wort, die keine Ahnung haben und reine Mutmaßungen anstellen (Multicore müsste doch ausreichen.. bla bla) und je länger der Thread wird umso qualifizierter auch die Aussagen.

Ich werd wohl erst einmal wieder reinschauen, wenn wir bei 5+ Seiten angelangt sind. Dann sollten dümmsten Aussagen eigentlich schon alle getätigt worden sein und man müsste sich normal unterhalten können.

Obwohl es zu dem Thema ja eigentlich nicht nichts mehr groß zu sagen gibt, was nicht auch schon im PhysX-Thread erwähnt wurde.


Was mich am meisten wundert ist, dass hier jeder davon ausgeht, dass es sich dabei um eine interaktive Physikengine handelt. Natürlich erwähnen weder nVidia noch ATi, dass die Grafikkarten keine Informationen zurück an die CPU liefern. Also weiß die CPU auch nicht über die Dinge, die durch die Physikberechnung entstanden sind Bescheid. Aus diesem Grund kann man dann auch nicht mit den Objekten interagieren. Wie auch, wenn lediglich die Graka weiß, wie es in der virtuellen Welt gerade aussieht.
 
Zuletzt bearbeitet:
Was wollt ihr eigentlich immer mit DualCore Grafikkarten? Beschäftigt euch mal mit den Unterschieden zwischen Mainstream- und Highend-Grafikkarten, dann werdet ihr einige sehr interressante Dinge erfahren.

Und, wozu denn mehere Grafikchips für die Physikberechnung?
Wozu denn den kompletten Chip verdoppeln, wenn nur die Shader gebraucht werden? ATI hat beim heutigen Spitenmodel schon die Shaderleistung verdreifacht, im vergleich zum Vorgänger. Da liegt enorm viel Leistung brach, weil die Spiele-Entwickler noch nicht soviel Shader-Leistung benötigen. Bei der nächsten Generation erhöht man die Shaderleistung einfach wieder einmal stark überproportional und fertig.
 
Zurück
Oben