News Im Test vor 15 Jahren: PhysX-Beschleuniger für 299 Euro von Ageia

matty2580 schrieb:
Aber Nvidia hatte Ageia gefressen, und versucht maximal für sich sich auszuschlachten.....
das macht natuerlich keine anderer Konzern ... vor allem "dein?" AMD macht sowas garantiert niemals. Man stelle sich mal vor ein boersennotiertes Unternehmen wuerde nicht auf Gewinnmaximierung und Uebernahme anderer basieren. So wie AMD natuerlich, die machen alles nur fuer ihre Kunden. An der Preiserhoehung der letzten Jahre im GPU Sektor war natuerlich auch nur Nvidia Schuld. AMD "musste" dann halt einfach bei den Preisen mitgehen, richtig? Alles nur zum Wohle des Kunden, die Aktionaere sind hier nicht relevant, die halten bei AMD am Ende des Jahres nicht gerne die Haende auf ...
Und ja ich weiss, der ganze Quatsch wie DLSS und RT ist Muell und wird sich nie durchsetzen. Zum Glueck probieren die ganzen Technologiehersteller nie was neues aus, man braucht Stillstand.
Wie man bei Hardware uebrigens "Fan" von einer Marke sein kann, das erschliesst sich mir bis heute nicht. Aber ich denke ich bin bei sowas auch einfach zu pragmatisch und nicht emotional.
Das ganze ist uebrigens auch nicht persoenlich gemeint, jeder wie er mag. Ich kann solches Fanboytum nur nicht so ganz nachvollziehen. Keiner dieser Konzerne will irgendwie etwas Gutes fuer die Kunden tun.
 
  • Gefällt mir
Reaktionen: VoodooMax und Eisenoxid
@abcddcba
Was @matty2580 meinte, war, dass Nvidia PhysX genutzt hat, um AMD zu benachteiligen. Unter Ageia war PhysX mit Grafikkarten beider Hersteller nutzbar und nach der Übernahme durch Nvidia eben Nvidia-Exklusiv, denn der Vertrieb von Zusatzkarten wurde natürlich eingestellt und AMD konnte weder für Geld noch gute Worte eine Nutzungslizenz erwerben. Den Trick, einer AMD- eine Nvidia-Karte beiseite zu stellen, hat Nvidia per Treiber unterbunden und PhysX via CPU hat soviel Leistung gefressen, dass man es auf AMD besser ausließ.

Ja, natürlich ist AMD ein gewinnorientiertes Unternehmen, aber so ein Gebaren hat AMD nicht an den Tag gelegt, sie haben Dinge wie z.B. TressFX nicht für Nvidia zugenagelt, so wie Nvidia es mit PhysX und Gameworks gemacht hat. Mantle brachte zwar auf Nvidia-Karten zwar keine Vorteile, aber eben auch keine Nachteile und Mantle-only Spiele gab es auch nicht. Nur zwei Beispiele.
 
  • Gefällt mir
Reaktionen: OiOlli, Prolokateur, Nickel und eine weitere Person
Ich weiß noch, wie man zum Schluss die ganzen Ageia-Karten herausgehauen hatte. Aber war nicht gerade eine gute Investition.
 
Finde es eigentlich immer ziemlich cool, wenn man etwas versucht. Viel zu viel Wert wird auf die reine Grafik gelegt. Eine extra Karte für KI oder damals eben Physik finde ich gut. Heute ist natürlich das meiste gleich in der Grafikkarte integriert.

Heute kann man im Treiber ja immer noch einstellen ob PhysX von der Grafikkarte oder der CPU übernommen werden soll. Was ist eigentlich besser?
 
Powl_0 schrieb:
Havok hatte keine Hardwarebeschleunigung (und auch sonst keine Middleware). Unter anderem, weil es vor dem Ageia Aufkauf GPU Compute nicht in Consumerkarten gab.

Das war doch genau die Neuerung daran und der Grund, wieso solche komplexen Physikeffekte in dem Maße machbar wurden!

Alles schlecht reden und dann keine Ahnung davon.

Meine Güte...
"Meine Güte" Wir sprachen hier generell von Physikengines. PhysX hat Physikengines nicht erfunden.
Ageisa hat lediglich eine Physikengine entwickelt die auf einem hardwarebasierten Physikbeschleuniger (vermutlich einem FPGA) basierte.
Das hat nvidia aufgekauft, die Software auf ihre Compute Einheiten zugeschnitten und das war's. Halt nicht ganz.
Rein aus Marketinggründen hat man den CPU Fallback künstlich beschränkt in dem man nur einen CPU Kern nutzte und dazu mit ineffizienten x87 Code noch eine zusätzliche Bremse einbaute.

Nach etlicher Kritik wurde dann nach und nach, als die Kuh gemolken wurde, der unoptmierte x87 Code ersetzt und irgendwann endlich die Mehrkernunterstützung eingeführt.

Letztlich zeigt es sich das die CPU Beschleunigung im Grunde genommen der GPU keineswegs unterlegen war. Es gab sogar Benchmarks in denen es sich zeigte das die CPU Beschleunigung Vorteile hatte, wenn das Spiel zB im GPU Limit hing.

Also ne ganz tolle, heiße technische Entwicklung, die Nvidia uns da aufgetischt hat... Oder so
 
  • Gefällt mir
Reaktionen: OiOlli, Slayn, Prolokateur und eine weitere Person
RobinSword schrieb:
Was konntest du denn damals mit HW-PhysX machen, was du heute mit Software-PhysX nicht kannst? Irgendwelche (z.B. Unity-) Entwickler hier im Forum, die das mal erklären könnten?
Die Software-Physik läuft halt nicht auf der GPU, somit ist die verfügbare Rechenleistung deutlich reduziert. Da kannste bei CPU/GPU aus circa gleichem Jahr mitunter von Faktor 10 Unterschied ausgehen. Bei ner GPU 10% Leistung abzwacken und du hast >100 GFlops auf parallele Berechnung ausgelegte Rohleistung. 10% bei ner CPU abgezwackt und du hast selbst mit gutem AVX Pfad nicht ansatzweise so viel Rohleistung.

Heißt, bei gleicher Bildrate kannst du da auf der CPU deutlich weniger Partikel, Objekte, etc durchdrücken. So Späße wie zB bei Borderlands 2 die (zugegeben recht grobe) Fluid Simulation durch PhysX lief damals auf Karten wie einer GTX 680 halbwegs flüssig. Versuch sowas auf einer CPU und du wirst selbst mit was aktuellem nicht so performant werden.

Heute merkt man davon nicht mehr viel, weil eben kaum noch HW-PhysX verwendet wird und die HW PhysX Effekte von vor 10 Jahren auf modernen CPUs zumindest halbwegs brauchbar im Fallback laufen können. Würde jemand auf aktuellen GPUs mal HW PhysX mal richtig auffahren, oh boy...man sehe sich als Vergleich zB mal UE4 Niagara oder den Unity VFX Graph an. Beides "nur" für Partikeleffekte, aber läuft auf GPU Compute und erlaubt flüssig Millionen an Partikeln, die miteinander interagieren. Auf ner CPU wär da nach ein paar tausend Partikeln Schluss.

Dazu kommt aber der Nachteil, dass GPU Physik nicht einfach zurück in den RAM synchronisiert werden kann. Es bräuchte immer mindestens einen Frame Latenz und du kannst es nicht jeden Frame machen, weil sonst die Performance wieder einknickt. Daher ist es schwer bis nicht möglich, GPU Physik aktiv ins Gameplay einzubinden, sondern es verbleibt meist als optische Aufwertung.
Ergänzung ()

Balikon schrieb:
AMD wird niemals Tensor-Cores haben. es sei denn, sie haben bei Nvidia Industriespionage betrieben. DLSS ist nur einen Übergangslösung, bis die Karten generell stark genug sind, Raytracing ohne Hilfsmittel auszuführen.
Quatsch. Tensor sind keine Nvidia exklusive Technik. Gibt bereits mehrere Firmen, die ihre eigenen Tensor Beschleuniger im Einsatz haben.
Ergänzung ()

Volkimann schrieb:
"Meine Güte" Wir sprachen hier generell von Physikengines. PhysX hat Physikengines nicht erfunden.
Nein. Wir reden bei Ageia PhysX ganz spezifisch von hardware-beschleunigter Physik. Das ist ein großer Unterschied. Grob zu verallgemeinern zeigt mir nur, dass du nun ganz weit ausholst, um dir das Thema zurecht zu biegen.
Ergänzung ()

Volkimann schrieb:
Letztlich zeigt es sich das die CPU Beschleunigung im Grunde genommen der GPU keineswegs unterlegen war.
Nein, das zeigt sich nicht und stimmt heute sowie damals nicht. Selbst mit gutem SIMD Pfad schafft eine CPU Physik nicht so schnell wie eine GPU. Wie auch sonst? Eine GPU ist bei SIMD mal easy um Faktor zehn schneller, als eine CPU. Wenn du Recht hättest, dann wäre auch Grafikberechnung auf CPUs genauso schnell wie auf GPUs.
Ergänzung ()

Volkimann schrieb:
Es gab sogar Benchmarks in denen es sich zeigte das die CPU Beschleunigung Vorteile hatte, wenn das Spiel zB im GPU Limit hing.
Da ziehst du einen Trugschluss. Dass die CPU Beschleunigung einen Vorteil hat, wenn die GPU voll am Anschlag hängt, ist doch klar...da erzeugst du aber gezielt eine Situation auf der GPU, bei der sie der Compute Physik weniger Rechenzeit geben muss.
Lass beide mit genug Headroom laufen, und die GPU wird immer schneller sein.
Ergänzung ()

Volkimann schrieb:
Also ne ganz tolle, heiße technische Entwicklung, die Nvidia uns da aufgetischt hat... Oder so
I mean... PhysX durch CUDA war der Consumer Aufhänger für GPU Compute. Letzteres ist tatsächlich ein Meilenstein der Technik. Die Einführung von GPGPU hat die Rechenleistung für parallele Berechnungen um eine Größenordnung nach oben katapultiert. Heutzutage in nahezu allen Forschungsbereichen nicht mehr wegzudenken.
Du darfst gern weiter so tun, als sei das ja alles langweilig und irrelevant, aber wer hat denn vor Nvidia general compute auf GPUs gemacht und so voran getrieben?

Ich will Nvidia hier nicht den Knauf polieren, ich bin auch stark gegen deren proprietäres Gebaren. Aber die Entwicklungsleistung kann man ihnen nicht absprechen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Naitrael, Klever und thuNDa
Volkimann schrieb:
Welchen Bezug haben jetzt die Ende der 90iger eingeführten x86 Befehlserweiterungen der CPU Hersteller mit (GPU) PhysX?
Weil das auch proprietäre Erweiterungen waren, die sich nicht halten konnten, bis auf SSE.
 
Volkimann schrieb:
"Meine Güte" Wir sprachen hier generell von Physikengines. PhysX hat Physikengines nicht erfunden.
Ageisa hat lediglich eine Physikengine entwickelt die auf einem hardwarebasierten Physikbeschleuniger (vermutlich einem FPGA) basierte.
Das hat nvidia aufgekauft, die Software auf ihre Compute Einheiten zugeschnitten und das war's. Halt nicht ganz.
Rein aus Marketinggründen hat man den CPU Fallback künstlich beschränkt in dem man nur einen CPU Kern nutzte und dazu mit ineffizienten x87 Code noch eine zusätzliche Bremse einbaute.
In dem verlinkten Artikel von @Fritzler wird aber das Gegenteil behauptet:

Der verwendete PhysX-Programmcode stamme außerdem von Ageia und noch aus einer Zeit, in denen Prozessoren mit nur einem Kern vorherrschten. Das ist laut Del Rizzo der Grund, weshalb Multithreading nicht enthalten ist.
 
@owned139
Bitte den Artikel richtig lesen und nicht durch die nvidia Brille um dann den Satz zu zitieren der einem gefällt.
Der alte Code an sich kann nur 1 Kern, aber sobald eine nvida Karte steckte hat der Treiber mehrere Instanzen davon gestartet.
Was bei AMD/Ati Systemen nicht der Fall war.
Da kann man schon von aktiver Ausbremsung reden.
Denn wieso startet dann nicht der eigentliche PhysX Treiber mehrere Instanzen, egal welche Graka im System steckt?
Die veralteten Befehle (=wer braucht schon Weiterentwicklung wenn mans auch ausschlachten kann?) waren dann das i Tüpfelchen.
 
  • Gefällt mir
Reaktionen: OiOlli und Prolokateur
Fritzler schrieb:
@owned139
Bitte den Artikel richtig lesen und nicht durch die nvidia Brille.
Der alte Code an sich kann nur 1 Kern, aber sobald eine nvida Karte steckte hat der Treiber mehrere Instanzen davon gestartet.
Richtig, weil sie ihren Code hinzugefügt haben. Andere HW wurde aber nicht aktiv von Nvidia gebremst, sondern nur nicht supportet, aber das genaue Gegenteil wird hier behauptet. Die Bremse war bereits von Ageia drin, weil damals Single-Core standard war.

Dass das aus Usersicht kacke war kann ich verstehen, aber wieso sollte Nvidia für die Konkurrenz entwickeln? Wer macht das denn? Es lief auf der Konkurrenz und nicht mal das hätte man erwarten können.
Das ist jetzt nichts, was man Nvidia vorhalten könnte. Da seh ich die Tesselation-Geschichte zu Crysis 2 Zeiten viel kritischer, als selbst simple Betonblöcke 64x+ tesseliert wurden, weil Nvidia wusste, dass ihre Karten in der Hinsicht richtige Monster sind, aber AMD hart abkackt.
 
Zuletzt bearbeitet von einem Moderator:
Hayda Ministral schrieb:
DirectX war eine Zeitlang "der" Standard bei Spielen. Diese Zeiten sind vorbei, Microsoft hat überreizt.
Ist es unter Windows dich noch immer oder habe ich was verpasst? Vulcan ist afaik doch nur eine Grafik API.
 
Wenn man viel versucht, dann will man eben auch die Früchte tragen, so dumm ist der Gedanke ja gar nicht es dann zu limitieren. Ohne möglichen Gewinn, würde man sich wohl einige Forschung direkt sparen. Das für den Kunden natürlich offene Technologien besser sind, steht ja gar nicht zur Debatte. Noch schlechter wäre es aber, wenn es viele Technologien dann gar nicht gäbe.

Ist ja auch der eigentliche Gedanke hinter Patenten...
 
Balikon schrieb:
AMD wird niemals Tensor-Cores haben. es sei denn, sie haben bei Nvidia Industriespionage betrieben.
Da hast Du natürlich Recht, das Multiplizieren zweier 4x4 Bit breiter FP-16-Matritzen Quelle ist dermaßen hochentwickelte Raketenwissenschaft dass nur Nvidia dazu in der Lage war diese sensationelle Technik zu entwickeln (und das schon so kurz nachdem Mikrosoft das Internet erfunden hat).:schluck:
 
  • Gefällt mir
Reaktionen: Player(1) und Prolokateur
owned139 schrieb:
Dass das aus Usersicht kacke war kann ich verstehen, aber wieso sollte Nvidia für die Konkurrenz entwickeln? Wer macht das denn?
Kann schon Sinn machen, wenn man eine Marktdurchdringung erreichen will. Verkauft man halt Lizenzen.
 
Fand ich damals mega cool. Würde ich mir heute noch mal in modern wünschen. Wäre auf jeden Fall besser als das recht enttäuschende Raytracing
 
Ayo34 schrieb:
Wenn man viel versucht, dann will man eben auch die Früchte tragen, so dumm ist der Gedanke ja gar nicht es dann zu limitieren.
Lizenzen und guten Support monetarisieren. Damit erreicht man mehr Verbreitung und kann auch noch von seinen Mitbewerbern Geld kassieren.
 
Das ganze ist schnell an mir vorbei gegangen. 😁
 
Ich hatte mal meine damals alte GTX 260 im System drin gelassen, um die PhysX Berechnung zu übernehmen. Als Hauptkarte setzte ich eine GTX 580 ein. Gemerkt habe ich davon nix, war eher fürs Ego da ich halt die Karte übrig hatte.. Die Spiele liefen deswegen nicht schneller
 
Was eine Errinerung, GRAW hatte ich damals im Multiplayer mit Kumpels gezockt bis zum Umfallen. Hat riesen Spaß gemacht, auch wenn es manchmal echt schwierig war. Das waren noch Zeiten, sehr sehr schön.

Und eine PhysX Karte wollte ich damals immer gerne haben, ich wusste selber das der Sinn darin im Vergleich zum Preis, dennoch wollte ich sie immer gerne haben.
 
Zurück
Oben