News ATis GPUs besser in Physikberechnungen?

@Winder: "Bei der nächsten Generation erhöht man die Shaderleistung einfach wieder einmal stark überproportional und fertig." Was sich dann in entsprechend mehr Transistoren (Aufwand) und dafür entsprechend geringerer Taktrate niederschlägt. Der Preis ist dann sicher auch nicht von schlechten Eltern. Zudem müssen sich dann zukünftige Spiele und die Physikengine um die wertvollen Shader streiten, was sicher der Performance auch nicht gerade zuträglich sein wird.
Da ist mir eine zusätzliche Steckkarte doch lieber, weil effizienter und damit billiger.
 
Winder schrieb:
ATI hat beim heutigen Spitenmodel schon die Shaderleistung verdreifacht, im vergleich zum Vorgänger. Da liegt enorm viel Leistung brach, weil die Spiele-Entwickler noch nicht soviel Shader-Leistung benötigen. Bei der nächsten Generation erhöht man die Shaderleistung einfach wieder einmal stark überproportional und fertig.
Klar, und damit erhöhen wir dann gleichzeitig den astronomischen Energieverbrauch noch weiter und die damit einhergehende Wärme bzw. daraus resultierende Laustärke.

Die PhysX Karten werden afaik 20-30 Watt ziehen und sind damit leicht passiv zu kühlen.
 
sebbekk schrieb:
Die PhysX Karten werden afaik 20-30 Watt ziehen und sind damit leicht passiv zu kühlen.

Die Karte zieht 28 Watt und der Chip alleine nur 20 Watt. Passive Kühlung ist also kein Problem. Der Lüfter ist garantiert nur zur Sicherheit drauf, damit der Chip auch das wärmste Gehäuse übersteht.

MacGyver schrieb:
Was wäre denn wenn man auf eine Dual-GPU Grafikkarte nicht einen zweiten Grafikprozessor lötet sondern
den Ageia Chip ?

Weil du dann mit jeder neuen Grafikkarte auch gleich einen neuen PhysX-Chip kaufen müsstest. Es soll aber noch drei Jahre dauern, bis der nächste PhysX-Chip erscheint. In der Zeit wirst du deine Graka mindetens einmal gewechselt haben und müsstst den gleichen Chip zwei mal bezahlen.
 
@seesharp

Der R580 hat im Gegensatz zum R520 fast die 3 fache Shaderleistung, trotzdem sind die R580 Karten nicht 3 mal so schnell. Das bedeutet, das die Shaderleistung beim R520 noch nicht limitiert und beim R580 erhebliches Potential brach liegt. Die brachliegende Leistung könnte man problemlos nutzen.

Noch mal einige Sachen beim Ageia Chip, die ich problematisch sehe.
-Der Prozessor ist auch nicht auf Physikberechnungen spezialisiert, da Ageia einfach nicht die nötigen Ressourcen dafür hätte. Sie mußten sich ein Prozessordesign von einem Dritthersteller kaufen und darauf eine passende Schnittstelle programmieren.
-Ageia ist eine recht kleine Firma, und die kann sich anscheinend nicht sehr häufig ein neues Re-Design leisten. Momentan wird der PhysX Chip in 130nm hergestellt, Grafikkarten schon teilweise in 80nm. In Zukunft könnte das noch schlimmer werden.
-Wird es genug Spiele geben, die die PhysX Karte auch wirklich nutzen und nicht nur unterstützen? Gerade wenn man sich mal die Anzahl der Soundkartenbesitzer ansieht, sieht man recht leicht, dass die Anzahl der PhysX-Besitzer anfangs wohl recht gering sein wird. Und werden die Spiele-Entwickler tatsächlich für nur eine Hand voll Spieler, viele neue und beeindruckende Effekte einbauen? Falls in einem Spiel zu wenige neue Spetialeffekte eingebaut werden würden, könnte auch die brach liegende Leistung der Grafikchips genügen und viele Käufer davon abhalten sich so eine Karte zu kaufen.
 
Ich finde, man sollte den künftigen CPUs einen Physikbefehlssatz verpassen.
Denn Physik wird nicht nur in Spielen benötigt!!!
Dann kann man auf eine Zusatzkarte oder bla verzichten und der Prozessor macht weiterhin das, wofür er gedacht ist.

Viel interessanter finde ich folgendes:
Laut ATi ist sowohl die R520- als auch die R580-Architektur zu Physikberechnungen in der Lage, man müsse diese Funktion lediglich über die Treiber aktivieren. Man wolle eine proprietäre Programmierschnittstelle integrieren, die einem Spiel das Umgehen von OpenGL oder DirectX ermöglicht, damit es direkt mit der Hardware kommunizieren kann. Natürlich sollen auch DirectX oder OpenGL genutzt werden können, sofern der Programmierer es wünscht.

Das heißt ja, das man OS-unabhängige Spiele produzieren könnte, weil man nicht mehr auf DirectX angewiesen ist. :freu:
 
tze, ati bekommst noch nich ma mit der grafik hin, was labbern die denn dann von physik?! eine GRAFIKkarte sollte primär wie sekundär die grafik berechnen und nicht der ppu im weg stehen ^^
 
Ich persönlich will ja lieber Grafikkarten sehen, die mit der aktuellen Menge an Effekten und Details easy fertigwerden, anstatt realistisch fliegende Gewehrkugeln >_>
 
@yahirhem

Soso DualCore CPU und GPU reichen also aus... und wie siehts in aktuellen Spielen aus?

Da hast du also noch genug Power übrig für Physikberechnungen? Ich glaube nicht.

@all
Bitte kapiert doch endlich das ein spezialiserter Prozessor zig mal mehr Leistung hat als eine Alleskönner-CPU (egal ob Dual oder Quadcore).

Eine GPU braucht ihre Leistung für die Grafik, wann soll die denn noch komplexe Physikberechnungen durchführen?

Natürlich preisen ATI und nVidia eine zweite Graka an, die wollen ja auch Geld verdienen. Spätestens in einem Jahr haben die auch eigene Physikkarten auf dem Markt.

Fazit:
- nein ihr braucht keine Physikbeschleuniger
- ein Physikbeschleuniger hat auch nichts damit zu tun das Dinge realistischer dargestellt werden
- ein Physikbeschleuniger wird am Spiel nichts ändern
- Spiele werden nur mehr Effekte haben

Und jetzt regt euch ab, wartet bis die Karten draussen sind und regt euch dann über die Benchmarks auf.
 
@michigrunf

Dann verpassen wir der CPU auch gleich noch 3D-Fähigkeiten.
Oder Soundbefehlssätze.

"Dann kann man auf eine Zusatzkarte oder bla verzichten und der Prozessor macht weiterhin das, wofür er gedacht ist."
?
 
hmm, ... wie soll ich des topic verstehen? :? Braucht man dazu ne Mastercard??? oder is des einfach wenn man 2 von den karten hat, eine als normale Graka funzt und die andere als physikbeschleuniger ^^ weil habe hier ne x1900xtx im rechner und noch ne alte x1800xl ... wär mal interessant zu wissen ^^
 
Ja, für zwei X1900XTX braucht man ne goldene Mastercard mit nem dicken Konto :D

@shady.: Wo bekommt ATI noch nicht mal die Grafik hin?

@Topic: Es wurde schon alles richtige gesagt...
 
Winder schrieb:
-Der Prozessor ist auch nicht auf Physikberechnungen spezialisiert, da Ageia einfach nicht die nötigen Ressourcen dafür hätte. Sie mußten sich ein Prozessordesign von einem Dritthersteller kaufen und darauf eine passende Schnittstelle programmieren.

Woher hast du denn diese Information? Es ist eher umgekehrt. Ageia ist ein Prozessordesigner und eigentlich kein Software-Entwickler. Die haben höchstens jemand Drittes eingeschaltet um die Engine zu schreiben.

Allerdings hat Ageia selbst keine Fertigungsstätten, weswegen die Fertigung extern geschieht.

-Ageia ist eine recht kleine Firma, und die kann sich anscheinend nicht sehr häufig ein neues Re-Design leisten. Momentan wird der PhysX Chip in 130nm hergestellt, Grafikkarten schon teilweise in 80nm. In Zukunft könnte das noch schlimmer werden.

Das stimmt. Ich denke auch, dass sie sich keine so häuigen Redesigns leisten können, was aber auch ganz OK ist. Sollen sie mal ausgiebig an einem neuen Prozessor arbeiten, anstatt wie bei den Grafikkartenherstellern jedes halbe Jahr nur eine minimal verbessere Version herauszubringen.

-Wird es genug Spiele geben, die die PhysX Karte auch wirklich nutzen und nicht nur unterstützen? Gerade wenn man sich mal die Anzahl der Soundkartenbesitzer ansieht, sieht man recht leicht, dass die Anzahl der PhysX-Besitzer anfangs wohl recht gering sein wird. Und werden die Spiele-Entwickler tatsächlich für nur eine Hand voll Spieler, viele neue und beeindruckende Effekte einbauen? Falls in einem Spiel zu wenige neue Spetialeffekte eingebaut werden würden, könnte auch die brach liegende Leistung der Grafikchips genügen und viele Käufer davon abhalten sich so eine Karte zu kaufen.

Da hat Ageia eigentlich eine recht gute Strategie um die PhysX-Unterstützung zu forcieren und zwar wird es die Novodex-Engine kostenlos geben, wenn der Spielehersteller Features in sein Spiel einbaut, die den Phys-X erfordern. Tun er dies nicht und integrieren nur herkömmliche Physik, die durch die Karte nicht profitiert, werden Lizenzgebühren in Höhe von 50.000$ fällig.

Und selbst das wird bestimmt noch günstiger sein, als zum Beispiel die Havok-Engine. Ageia muss jetzt erst einmal einen richtigen Preiskrieg führen damit sich die Karte durchsetzt.

Besonders kleine Spielehersteller, die kein großes Budget haben, werden sich auf diese Engine stürzen. Ich denke da zum Beispiel an FAKT-Software mit Crazy Machines 2. Die haben bestimmt kein Budget sich eine teure Engine einzukaufen und wahrscheinlich nicht die Fähigkeiten und Zeit sich selbst eine gute Engine zu schrieben.

Da nimmt man lieber die kostenlose Novodex-Engine und baut ein paar zusätzliche PhysX-only-Effekte ein.

Interessant, wird es auch zu sehen, wie sich die Novodex-Engine so auf dem Cell-Prozessor macht. Für den gbt es eine speziell optimierte Version der Engine und dadurch, dass die Engine momentan die einzige Engine ist, die multithreadingfähig ist dürfte die auf der PS3 sehr gute Leistungen erzielen.

Ähnliches gilt natürlich auch für die Xbox 360. Es gibt zwar keine spezielle Version, aber ein Multiprozessorsystem sollte auch eine Multithreadingfähige Physikengine haben und von daher hat die Engine auch da gute Chancen.

Der Verbreitung der Engine steht also nicht viel im Weg. Wie das mit den Karten aussiseht wird man abwarten müssen. Spieler werden die erst kaufen, wenn es genpügend Spiele gibt. Mittlerweile sind aber schon über 100 Spiele angekündigt, die den Chip unterstützen.
 
@51 ... Das ich um Crossfire nutzen zu können ne Mastercard brauche is mir auch klar ^^ Nur meine Frage war auf Topic bezogen. Wollte nur wissen ob man ne mastercard braucht, damit man die 2te zum berechnen der physik nutzen kann.
 
Nein brauchst du nicht unbedingt, wenn du die zweite Graka nur zur Physikberechnung einsetzten möchtest. Wenn du sie aber auch im Verbund benutzten willst, kommst nicht drum herum.
 
michigrunf schrieb:
...

Das heißt ja, das man OS-unabhängige Spiele produzieren könnte, weil man nicht mehr auf DirectX angewiesen ist. :freu:
Heißt es ganz und gar nicht, ATI hat schon Probleme damit OpenGL-Treiber für Unices herauszubringen - glaubst du die würden ihre eignene, proprietäre API besser auf Unices portieren, als die aktuellen OpenGL-Treiber? Proprietär ist proprietär und hat nichts mit dem Namen der Entwicklungs- und Vertirebsfirma zu tun. ;)

Winder schrieb:
@seesharp

...
-Der Prozessor ist auch nicht auf Physikberechnungen spezialisiert, da Ageia einfach nicht die nötigen Ressourcen dafür hätte. Sie mußten sich ein Prozessordesign von einem Dritthersteller kaufen und darauf eine passende Schnittstelle programmieren.....
Weil sich Ageia Hilfe von anderen holt ist der Chip nicht spezialisiert? Via hat für Grafikchips S3 eingekauft - sind die Via/S3 Grafikchips deswegen keine Grafikchips? Mal abgesehen von dem, was Noxon dazu gesagt hat, ob sie überhaupt das Chipdesign gekauft haben, ist es schon allein abwegig davon auszugehen sowas wäre ein Grund dafür, dass der Chip kein Spezialchip wäre.
 
Werde mir sowieso keine Physik karte kaufen da ich das komplett besch..... finde. Wenn dann sollten die Graka Hersteller den Physi Chip direkt auf der Graka verbauen, da finde ichs schon nicht ganz so schlecht wenn 2 SLI oder CF Karten sich die arbeit teilen, da der Preis einer Physikarte sowieo fast einer Midrange von ATI/NVIDIA entspricht. Da kommt nur eine 2 Graka für mich in Frage, weil wenn ein Spiel keine Physikarte unterstützt du trotzdem die Power von 2 Grakas nützen kannst.
Tja wir werden es ja noch sehen wie sich das entwickelt.
 
@44 Winder: Die neue Kartengeneration von ATI ist gerade einmal draussen und noch nicht mal vernünftig verfügbar. Welches Spiel kann dann diese Leistung überhaupt nutzen? Zuerst muss ja einmal die Verbreitung gegeben sein, dann wird die Softwareindustrie langsam umschwenken.
Ich gehe davon aus, dass in einem Jahr 48 Shader bereits voll ausgenutzt werden, denn gerade die Sorgen in den aktuellen Engines ja für reichlich eye-candy. Mit meiner X800 PE war's ja genau so. Als ich sie gekauft habe (Dezember 2004), konnten ihr die damaligen Engines mit den höchsten Einstellungen gerade einmal ein müdes Lächeln abgewinnen. Inzwischen schöpfen Spiele wie FEAR die Karte voll aus, da blieben keine Leistungsreserven mehr für physikalische Berechnungen. Nicht umsonst empfehlen ATI und nVidia ja einen SLI-Verbund, um das Feature überhaupt nutzen zu können. Bevor ich mir aber eine zweite Grafikkarte um 500 Euro in den Rechner stecke, gebe ich lieber 300 für die PPU aus.
Und der Hauptnachteil dieser Lösung bleibt ja immer bestehen: Es ist keine Interaktion des Spielers möglich, weil die CPU nicht mitkriegt was passiert!
Zu deinen Argumenten gegen die Ageia-PPU: Die Idee ist einfach genial. PPUs sind genau das, was der Spieleindustrie bisher gefehlt hat. Die zahlreichen Ankündigungen von Spielen, die die PhysX unterstützen wollen, untermauert meine These. Die virtuellen Welten realistischer zu gestalten war ja immer das Ziel und bei Grafik und Sound ist man ja schon sehr weit, bei der Physik steckt alles aber noch in den Kinderschuhen. Auch wenn der Chip selbst von einem Dritthersteller kommt, so hat Ageia sicher den bestmöglichen für diesen Zweck gewählt und bietet bereits eine fixfertige Lösung die sehr gut zu funktionieren scheint. Ganz im Gegensatz zu ATI oder nVidia, die nun verspätet auf den Zug aufzuspringen versuchen und eine höchstens halbherzige Lösung feilbieten können. Wie verbreitet sind schon SLI-Systeme mit genug Leistungsreserven und wer will schon auf Interaktion verzichten? Zumal die Reserven schon bald aufgebraucht sein werden...
Wegen der 130 nm-80 nm: Bei GPUs ist der Markt bereits gesättigt (jeder hat eine) und nur durch neue Leistungswunder können überhaupt noch Karten abgesetzt werden. Deshalb müssen ATI und nVidia auch den horrenden Aufwand treiben, um noch das letzte an Leistung herauszukitzeln. Für ein völlig neues Produkt wäre das verschwendeter Aufwand.
 
@56: Ich hör das Anliegen immer wieder, jedoch ohne ein Argument dafür. Was soll es bringen eine PPU auf der Grafikkarte/Soundkarte/Motherboard/... zusätzlich zu verbauen? Welchen konkreten Vorteil hätte diese Lösung?
 
@6 AshS: Das Problem ist, dass der Aufwand mit der Anzahl der Objekte enorm wächst. Ein Beispiel: Ich habe 100 Objekten die miteinander interagieren können/müssen (z.B. Kollision, Partikel, usw). Um die Auswirkungen für alle zu berechnen, muss ich meinen Algorithmus 100*99=9900 Mal durchlaufen lassen, wenn jedes Objekt mit jedem interagieren kann. Bei 32000 Objekten sind das schon 32000*31999 = 1023968000, also um einen Faktor von ca. 100.000 mehr, obwohl es nur 320 mal so viele Objekte sind.
Machen wir noch eine Milchmädchenrechnung ZU GUNSTEN der CPU: 1.023.968.000 Mal den Algorithmus durchlaufen, dafür 1/25 sec Zeit (25 fps wollen wir schon haben), macht also 25.599.200.000 Durchläufe pro Sekunde. Bei einem FX-60 sind das ca. für einen Core 1 Durchlauf des gesamten Algorithmus pro Takt, d.h. der Algorithmus darf dort gerade einmal aus einer EINFACHEN Maschinen-Instruktion bestehen. Das wird wohl kaum möglich sein ;-) Da müssten die CPUs also schon ordentlich zulegen, um das zu schaffen (ca. Faktor 1000).
 
@57)

...sehe ich absolut genauso. Im Prinzip geht es bei der Spieleentwicklung verstärkt darum (abgesehen von der Spielidee, aber da tut sich in letzter Zeit nicht wirklich viel...), die Spielwelt authentisch und für sich genommen realistisch (->SciFi, Fanstasy) darzustellen. Und um das Erlebnis einer realistischen Welt zu steigern hat man bis jetzt immer Sound und Graphik verbessert.
Beim Sound sind so langsam die Grenzen erreicht. Ich mutmaße mal, dass man den Unterschied zwischen einem 5.1 und 7.1 System nicht so extrem hört.
Bei der Grafik sind die Sprünge vom Realismusgrad im Verhältnis bei einem vergleichbaren Aufwand zur Physik auch nicht mehr so groß.
Die Physik ist genau, dass was gefehlt hat. Hab´in irgendeinem Thread hier was von unrealistischer "Hollywood-Physik" gelesen. Aber genau das wird nun erst mögliche sein, denn das unrealistische daran ist ja meist der Grund für die Explosion und nicht die Explosion an sich. Und sowas realistischer in einem Computerspiel darzustellen, wird den Realismusgrad enorm steigern.
Dies wird auch die Spieleindustrie bemerken und Ressourcen in der Spieleentwicklung für die Physik aufbringen. Als Folge wird sich die Grafik nicht mehr so rasant entwickeln (kann´s zwar net beweisen, aber die letzten Jahre sind die Anforderungen Grafikkarten exponentiell gestiegen), somit auch die Nachfrage nach leistungsfähigeren Grafikkarten, da die Halbwertszeit aktueller Karten sich verlängert. Und ein geringerer Absatz an Grafikkarten ist natürlich nicht im Interesse der Grafikkartenidustrie. Daher schiesst man jetzt mit havoc dagegen.
Das Havoc o.ä. nicht mit Novogen vergleichbar ist wurde ja schon hinreichend erörtert.

@Nichtkäufer, Boykottierer und Vertäufler

Ihr werdet in spätestens 1-1,5 Jahren fast alle so eine Karte besitzen. Denn vielen geht es so, dass sie, wenn sie bei der Grafik Detailreichtum und Auflösung runterfahren müssen einen Grafikkartenkauf ins Auge fassen, da man ja sein gekauftes Computerspiel in seiner vollen Pracht geniessen möchte. Und wenn dann die ersten den PhysX-Schalter auf "Off" stellen müssen und dann bei einem Freund oder sonstwo die ganze Pracht der Physikengine sehen, werden sie auch so eine Karte wollen.

...bis in einem Jahr ;-).
 
Zurück
Oben