News Ageia Benchmark zeigt Power von PhysX

Ich will eine PPU entweder in der GPU integriert oder mindestens mit auf der Grafikkarte haben, alle anderen Lösungen finde ich nicht akzeptabel.

In Zeiten von SLi, welches einem die Erweiterungsslots blockiert und gerade mal ein kümmerlicher PCI Steckplatz für die X-Fi übrig bleibt, werde ich mir bestimmt keine extra PCI Karte (für PCIe würde das ja noch gehen) mit kleinem Nerv-Lüfter kaufen, die zudem auch noch mit Strom versorgt werden möchte. Ich habe z.B. keine IDE Platten mehr, das würde bedeuten einen extra Netzteilstrang mit Molex Steckern nach unten ziehen, nur wegen diesen Teil. Vom viel zu hohen Preis fang ich gar nciht erst an...

Die minimal besseren Effekte sind mir sowas echt nicht wert... mal sehen was nVidia mit dem G80 Physikmäßig so bastelt.
 
ok, also mal langsam, warum ist diese karte nutzlos(ich spreche nur für mich) :

- sie bringt nur neue effekte, verändert aber nicht die welt an sich(bei vielen spielen z.b. rainbow six)

was will ich mit zusatzeffekten ? ich will ein gutes spiel und keine grafikdemo. sowas ist nutzlos. physikalisch richtig fliegende Partikel ohne kollision sind zwecklos und dienen nur dem auge.

- sollten wirklich spiele kommen wo diese karte einfluss auf die reale welt nimmt(z.b. cellfactor demo) dann würden diese spiele nur mit dieser karte laufen. warum ?

nun das ist einfach : man kann einen spielablauf nicht einmal programmieren für normale physik(cpu) UND physix card. der spielablauf wäre teils vollkommen unterschiedlich(sonst bräuchte man die karte ja nicht ;) ). spätestens bei multiplayer games haut das nicht mehr hin.

- mir reicht physik ala Half life 2 locker hin

ich möchte innovative spiele spielen und nicht innovative grafik sehen. ich brauche keine welt die ich physikalisch korrekt in ihre einzelteile zerlegen kann. das macht einmal spaß und vielleicht auch zweimal, aber beim dritten mal ist es einfach nurnoch langweilig.(bsp red faction)

lieber einfache berechnungen und dafür sinnvoll und spielerisch passend als alles 100% korrekt. wobei ganz ehrlich : wie die objekte bei der cellfactor demo fliegen ist ja mal ganz und garnicht realistisch.

ich bleibe dabei : alles was geld kostet und einen zusätzlichen steckplatz nur um hübsch auszusehen oder spielspaß-unrelevante details hinzuzufügen kaufe ich zumindest nicht.
 
Ein Benchmark von Ageia für die PhysX Karte von Ageia ist wirklich sehr vertrauenserweckend. Den Benchmark so auszurichten, dass nur die Vorteile der Karte zu sehen sind, das würde Ageia doch niemals machen!
 
ageias maketing scheint nicht so gut über die technik aufklären zu können...
die leute hier glauben doch tätsächlich, dass man nur ein paar lustige mülltonnen damit durch die gegend werfen kann.
die karte kann auch flüssigkeiten korrekter berechnen, was mit hyvok unmöglich ist.

spätestens, wenn es anwendungen für physx gibt, werdet ihr kapieren, dass das sinn macht.
mich nervt schon diese mistphysik in den meisten spielen, vorallem rennspielen. da kommt es schonmal vor, dass das auto umkippt, weil man ne wand berührt hat oder bei ut2004: wenn man mit dem flügel des mantas irgendwo hängen bleibt, neigt dich das vehikel etwas zur seite, wo es doch schleudern sollte.

@43) HardlineAMD:
hast du irgendeinen grund oder ein recht, alle, die nicht deiner meinung sind, zu beleidigen? leute wie dich sollte man mal so richtig zurechtweisen, damit du mal weißt, wo du dran bist.
 
HardlineAMD schrieb:
@42
Meine Meinung.
Diese ganzen schwachsinnigen Aussagen der PhysX Befürworter sind lächerlich. Wozu bitte unrealistische Physikeffekte? Dazu noch mit miserabler Performance und einer teuer erkauften Karte?
Ageia hat anscheinend schon genug Schwachköpfe ködern können, wie man hier im Thread sieht.

Jo die ganzen Softwareschmieden sind alle Schwachköpfe, besonders Epic, und du bist "Mister allwissend"

Ich glaub eher du willst dich nur der Masse anpassen, wenn fast alle sagen es ist Schrott, dann ist es auch bei dir Schrott.

Und komm erstmal bissel runter von deinem Baum oder von deiner ... naja sowas wirst du bestimmt nicht haben, und überleg dir erstmal wen du hier alles als Schwachkopf bezeichnest, es ist ganz allein meine Sache wofür ich mein erarbeitetes Geld ausgebe.
Und ob die Physik realistisch dargestellt wird oder nicht liegt am Programmierer und PhysX ist im Stande eine äußerst reale und komplexe Physik mit vergleichsweise wenig FLOPs zu berechnen - und das ist auch genau das was Ageia sagt: "Warum immer unrealistische Physikeffekte?!" und genau da setzt diese Firma auch an. "unrealistische Physikeffekte", dies fällt höchstens auf die HavokFX Engine, aber dir ists bestimmt egal, hauptsache möglichst unkompliziert und günstig in GPU o.ä. integriert, nach dem Motto "Geiz ist geil".
Aber egal, es zwingt dich ja niemand diese Karte zu kaufen.
Realsmasher hat da, im Gegensatz zu dir, eine sehr gute Argumentation gebracht und zwar wie weit man ein Spiel/Gameplay abhängig von dieser PhysX Engine machen kann, dies ist in der Tat ein nicht einfach zu lösendes Problem wenn man ein Spiel mit viel gameplayentscheidender Physik aufbauen will. Ich wüsste jetzt auch nicht wie man dies auf die Reihe bekommen könnte, aber feststeht, für dieses Problem verlangt es nach genialen Köpfen, und du bist da, nach deinem Post zu urteilen, keiner.
Wir werden uns in nem Jahr nochmal sprechen, denn bis dahin hat sich das PhysX-Projekt, welches schon Jahre besteht und viele von euch es versuchen tot zu trampeln, bestimmt schon besser aufm Markt eingefunden.
Ich weiss wenigstens noch gute Arbeit zu schätzen, denn die PhysX Engine wurde nicht mal so eben geschrieben, Havok ist im Vergleich dazu ziemlich lieblos.
Am besten etwas näher mit der Thematik beschäftigen.
Das einzige was mir an Ageia nicht gefällt, ist ihr plumpes Marketing. Ich hoffe dass es da noch Besserung geben wird und der Wechsel zu PCIe ist doch schon mal ein Anfang.
Ach ja, um nochmal auf den Benchmark zurückzukommen, dieser ist wirklich nicht gerade aussagefähig, denn ohne Ageias PPU wird PhysX auf der CPU nicht in dem Umfang berechnet als mit dieser PPU, aber auch gut so, denn sonst könnte man bestimmt alle 2 Stunden einen Framewechsel betrachten ohne PPU.
Genau wie bei den Soundkarten, auf einer CPU bzw. auf einem Onboardsoundchip funktioniert auch kein EAX3 und aufwärts.
Dennoch finde ich den Preis auch etwas zu hoch für diese Karte, aber dies ist ja nun nicht so tragisch, denn PhysX ist ja noch, marketing- u. integrationstechnisch am Anfang und Spiele gibts ja auch noch nicht viele bei denen man auf PhysX verzichten muss.
So, ich mach jetzt erstmal lieber schluss und entschuldige mich dafür, falls sich jemand durch diesen Post in seiner Persönlichkeit angegriffen fühlt(e).

Edit:

@Realshmasher

Bitte vergleich die PhysX Engine nicht mit Red Faction, denn das ist ja gerade zu :freak:

@Mepmashine

Ganz deiner Meinung.
 
Zuletzt bearbeitet:
@ 43
Sorry aber das ganze gelaber der selbsterklärten Experten die PhysX schlecht reden kotzt mich einfach nur noch an. Wie kann man einmal großkotzig erzählen, dass die Industrie uns nur >einreden< will das Physik Beschleuniger nötig sind und das doch aber totaler Quatsch wäre... und andererseits beharrt man dann aber auf den 120 FPS... weil das brauch man ja unbedingt. Und von den 120FPS darf ja nur nichts verloren gehen, weil dann kann man ja nicht mehr angeben... und es ist sofort so abgrundtief SCHLEEEECHT. Schlimmes Kopfschütteln ruft das bei mir hervor. Läute, erstmal aufklären, dann überlegen... und am besten nicht schreiben.
Wenn Physik-Beschleunigerkarten unnütz wären, würde Ati und Nvidia ganz bestimmt nicht noch versuchen mit ner unausgegorenen Lösung demnächst in den Markt reinzuplatzen. Aber bitte, nur weiterpredigen, was Nvidia und Ati erzählen... hochspezialisierte Karten sind einfach schrott... natürlich. Brauch man nicht, wozu auch.
Ob es sich in dieser Form durchsetzt ist unbekannt (Ageia hat sich mit dem Marketing verschätzt, bzw zu spät angefangen), über kurz oder lang wird man aber wohl an einem Chip für Physik UND AI nicht vorbeikommen. Stillstand bedeutet Rückschritt und in der IT Branche sind alle am laufen. Komisch nur das manche Benutzer das erst blocken wollen und danach in den Himmel loben (man bedenke nur die Festplatten entwicklung, 1 Terabyte... "Wozu brauch man das denn?!" ... und wenn HD oder Bluray standard sind wird 1T normal oder wenig sein.)
 
Diese Karten sind in jedem Falle die Zukunft, was fehlt ist die Optimierung. Die Hardwarelösung gehen alle Richtung Arbeitsteilung, damit ist einfach bei jedem Entwicklungsstand mehr Leistung möglich. Ob nun 2-fach oder 4-fach Kerne, Clusterlösungen oder, wie im Privat Consumer Bereich anfangs, die 3dfx Karten. Es geht in die Richtung, keine Frage. Für den Moment fehlt noch die passende Software, zu konservativ sind die Programmierer bzw. zu ängstlich die Producer.

Im Moment ist die Anschaffung einer solchen Karte von zweifelhafter Effiziens. Im Moment.

Alan Wake lief bei der Vorstellung mit 4 Cpu's welche sich die Arbeit teilten, angenommen es wäre die PhysX Unterstützung da, es wären sicher 1-2 Cpu's "arbeitslos" und hätten noch Power um sich um die Eye-Candy-Ecke zu kümmern, jeder wäre begeistert.

Es gibt Soundkarten für den Sound, Grafikkarten für's Bild, Mainbordchipsätze für den Datenverkehr und eine CPU für's "Grobe", verkehrt ist die Idee mit einer Physikkarte für das Geschmeidige nicht. Weitergehend gedacht könnte mach auch Grafikkarten aufsplitten in Texturkarten, Schattenkarten usw. Mehr Leistung wäre sicher machbar, die Frage ist nur wie weit der Verbraucher da mitgehen würde. Schritt für Schritt. Am Ende gibt es soviele einzelne Komponete für jeden Teil einer komplexen Berechnung, dass sicher jemand auf die Idee käme dies unter einer CPU zusammenzufassen. Wo wir wieder beim Anfang wären.
 
@neosundd
Die GPU ist bereits aufgesplittet, denn es gibt ja bereits Textureinheiten z.b., nur ist alles so sehr im Chip integriert, dass es aussieht wie eine GPU. Eigentlich sind GPUs bereits multicore, wenn man jede Pipeline als einen Kern betrachtet. Da bei der Grafik alles zusammengehört (wenn du Schatten besser sind dann sind meist auch die Texturen besser), würde man bei einem Grafikupgrade ohnhin meist alle einzelteile der GPU aufrüsten, daher macht eine einzelne GPU für alles Sinn. Physik integrieren macht nur beschränkt sein, da die solange halten soll wie eine Soundkarte, also auf eine Physikgeneration fallen 2 Grafikgenerationen, da würde es keinen Sinn machen bei jeder Graka einen Physikchip mitzubezahlen, da man bereits einen hat.
 
Ich halte von der Karte nichts, sei den frühren 80´s hock ich nun vor computern und freue mich auch über neues, aber im endeffekt neben dem ganzen technik blabla intressiert mich was "hinten" bzw auf dem Monitor bei rauskommt, und das was ich bis jetzt gesehen habe hat leider keinen wow effekt ausgelöst noch hatte ich den eindruck das das ich mit so einer Karte mehr spass haben werde als ohne dazu kommt eben noch die verarsche seitens Ageia in dem sie reißerich dinge behaupten die selbst die Marketing Abteilung von Sony´s Playstation vor neid erblassen lassen. Dazu ist der Preis der Karte jenseits von gut und böse zwischen 50-100€ währen ok gewesen wenn sie den auch wirklich was bringen würde... so ein chip gehört auch eher als bestandteil auf eine grafikarte bzw direkt in die gpu. Fazit is für mich die Idee ist gut und sinnvoll leider ist die umsetzung in die Hose gegangen und jetzt will man natürlich doch noch retten was zu retten ist. Ageia sollte sich lieber bei M$ einschleimen nur M$ Marketing abteilung kann das jetzt noch retten^^ real time physics Windows WoW das ist es was wir brauchen nur umherfliegende fässer und pixbruchstücke die man eh nur auf screensbewundern kann weils ingame einfach zu schnell geht, ok dank dieser Karte ist es wohl langsam genug das man die explosionen auch in einzelnen Phasen bewundern kann vieleicht sollte das ja der sinn dieser Karte sein^^

Aber schonmal gut das die mit 3Dmurks machern zusammen arbeiten da haben sich schonmal die richtigen gefunden.
 
also ich favorisiere eher ne extra steckkarte da diese auch bei nem systemwechsel bestehen bleibt.. da sist ne einmalige anschaffung die auch dann bestehen bleibt wenn man die graka wechselt.. überlegt mal ihr müsstet jedesmal mehr für die graka ausgeben die sowieso schon teuer genug sind nur damit da wieder so n chip drauf is! außerdem sind die grakas eh schon echt heiss.. dann lieber ne kleine karte mit kleinem lüfter (dan man ohne probleme auch durch nen passivkühler ersetzen kann)

achja hier mein ergebniss (core2duo @ 3,15GHz, 2GBRAM, x1900xt)

 
Zuletzt bearbeitet:
Jo, deshalb bin ich für ne CPU basierte, in einem thread ausgelagerte physik. Völlig steckkarten- oder grafikkarten-unabhängig. Vielleicht nich so leistungsfähig wie ne karte, aber mal ehrlich: wer brauch bitte 1000 objekte die sich physisch echt verhalten? Vor allem welche grafikkarte rechnet deren grafik? Sind doch wie bei HL eh alles objekte die nach dem kaputtgehen ausgeblendet werden oder wenn sie bleiben, so klein wie möglich bleiben, der performance halber.
 
Leute es gibt noch anderes als Objektphysik :rolleyes:
Nur anscheinend hat das noch niemand gemerkt weil Havok und co. das nicht unterstützt.
Unter anderem gibt es noch:
Nebel/Rauch
Flüssigkeiten
Stoffe
Objektdeformierung (z.b. für Rennspiele)
 
Realsmasher schrieb:
...
- sollten wirklich spiele kommen wo diese karte einfluss auf die reale welt nimmt(z.b. cellfactor demo) dann würden diese spiele nur mit dieser karte laufen. ....
Cellfactor macht genau das, das Spielkonzept liegt darin begründet, dass jedes "gteworfene" Objekt auch am gegner Schaden anrichtet, deswegen ist auch schon lange klar, dass Cell Factor eben nur mit PhysX läuft.

Ist der Zwang zur Hardwarebeschleunigung jetzt wirklich so verkaufsschädigend? Denki doch mal ein kleines Bisschen an die Vergangenheit: War es wirklich chancengleich in Quake II ohne 3D-Chip gegen Gegner mit 3D Chip zu spielen? Der Zwang existierte da also für den Multiplayer auch.

@ CPU-Physik-Fans

Schaut nochmal in die Grafik in meinem letzten Beitrag, 100 Objekte sind einfach nicht gleichviel wie 32.000 Objekte, die CPU kann definitiv nicht gleichviel berechnen. Ihr bräuchtet eine CPU mit 300 facher Performance von heutigen CPU um den heutigen PhysX zu schlagen und diese CPU müsste dann für die Physikberechnungen reserviert sein - wollt ihr ernsthaft den Aufpreis für die CPU-Leistung zahlen, die nunmal unabstreitbar wesentlich mehr Geld kostet?
 
Zuletzt bearbeitet: (Rechtschreibung)
mount walker, das hab ich auch shcon geschrieben und ich glaube, ich bin nicht der erste....
die kapieren einfach nicht, dass es noch etwas gibt, was havok nicht kann, nämlich materialien darstellen.

was ist das für ein forum?
 
PLAYERPHYSIKBERECHNUNGEN!!!!!

Ich kann nur noch einmal auf mkeinemn Post(27) verweisen.
Sämtliche Bewegungen und vor allem die Bewegungen von PCs/NPCs jkönten berechnet werden, damit sind Spieler Zahlen vollkommen irrelevant. Stellt euch Server Systeme mit einer PhysX vor. Auf weinen WoW Server könnten dann 5 mal so viele Leute rauf ohne Pingveränderungen. Hinzu kommt, dass ALLE Softwarehersteller auf aufwendige Physik extra verzichten, da es sehr Hardwarelastig für die CPU ist!
Eine CPU kommt nnicht annähernd an die Leistung einer PhysX und wie schon gesagt wurde mit der PhysX könnte man die anderen Cores frei machen und die könnten dann Background Aufgaben übernehmen (die die Hauptanwendung auch blocken).

Zu den ganzen Grafikkartenfans kann ich nru sagen, vier GPU Systeme unterstützt und fördert ihr(mit weis ich wie viel Watt) aber ne wirklich sinnvolle Sache lehnt ihr stattdessen ab.
Fakt ist, dass diese total schlecht ausgereifte Grafikkartenlösung wie schon gesagt wurde) mindestens 2 Grafikkarten braucht (SLI/Crossfire)! Eine GPU alleine kann Physik nicht berechnen, deshalb ist die Aussage "PhysX ist unnütz, da es in die GPU integriertz wurde" vollkommen schwachsinnig.
Dann müsste man also 500 Euro aufpreis zahlen um eine sehr viel schlechtere Lösung zu kriegen als die mit dem Phyxsdikbeschleuniger und der Slot ist letzendlich trotzdem weg. Außerdem verbqucht die Graka sehr viel mehr Watt und der Lüfter den darf man auch nicht vergessen. Und sowas finxdet iht toll?? Na dann viel Spaß.

Es geht um Spezialisierung, drei mal dürfen hier alle raten, warum sich damals die Grafikkarte durchgesetzt hat.
Eine Grafikkarte macht das Spiel an sich auch nicht besser osndern nur das optische.
Ein Physikbeschleuniger beeinflusst das SPielgeschehen direkt, da häutige Spiele sehr kahl sind und sich kaum etwas bewegt und wenn doch dann ist es sehr Hardwarelastig. Dies könnte sich in Zukunft ändern da man mit einem Physikbescvhleuniger nicht auf die Perforemence achten muss, die man hinterher überhaupt braucht um das SPiel zum lauifen zu bringen.
Der größte VOrteil wäre wie gesagt (meiner Meinung nach) die PC/NPC berechnungen da diese physikalisch unglaublich aufwendig sind. Solche Vorfälle, dass beispielsweise Warcraft 3 ab 300 Creeps unspielbar ist gäbe es mit einer PhysX auc nicht, da die Physikkarte diese ganzen Berechunungen einfach übernehmen würden.

Anstatt hier nur rumzumotzen und nicht mal zu wissen was eine Physikkarte überhaupt kann (von wegen par tolle Effeckte mehr -> das ist gerade mal der jetztige Standapunkt bei zwei spielen) sollten sich viele hier ienfach mal gut erkundigen und dann erst mitreden und sich die MÖGLICHKEITEN vor Augen halten.
 
MountWalker schrieb:
@ CPU-Physik-Fans

Schaut nochmal in die Grafik in meinem letzten Beitrag, 100 Objekte sind einfach nicht gleichviel wie 32.000 Objekte, die CPU kann definitiv nicht gleichviel berechnen. Ihr bräuchtet eine CPU mit 300 facher Performance von heutigen CPU um den heutigen PhysX zu schlagen und diese CPU müsste dann für die Physikberechnungen reserviert sein - wollt ihr ernsthaft den Aufpreis für die CPU-Leistung zahlen, die nunmal unabstreitbar wesentlich mehr Geld kostet?



@ Mountwalker:

Solche Diagramme sind fuer die Katz, solange sie nicht objektiv durch Vergleichsmessung belegt sind.
Eine CPU kennt uebrigens kein Objektlimit, da koennten genausogut "unendlich" in dem Diagramm stehen, die 32000 kann der PhysX NICHT ueberschreiten (Hardware-Limit!)
 
In der Zeit der Multi-Core @one die CPUs halte ich so etwas für völlig schwachsinnig. Mit den richtigen Befehlssätzen und der softwaretechnischen Abstimmung kann man beispielsweise aus einem Conroe enorm viel Rechenleistung herausholen. Dass CPUs aufgrund mangelnder Parallelisierung ungeeignet für Grafikberechnungen sind ist klar, allerdings ist Physikberechnung etwas völlig anderes. Die ersten nativen Quad-Core CPUs existieren bereits. Da bau ich mir doch keine teure Physik Karte ein, die nur Platz und Energie verschwendet, wenn alles so schön zentral von der CPU berechnet werden kann. Momentan ist es ohnehin sinnlos sich so eine Karte zu kaufen .. und wenn es soweit sein sollte, gibts auch Quad Core für den Otto Normalverbraucher.

Schade fände ich nur, wenn die Spielehersteller aufgrund diverser Zusammenarbeit und Verträgen ihre Physik Berechnungen nur auf die PhysX Karte optimieren und diese dann auch nur in der kompletten Form mit der PhysX berechnet werden können. Es gibt also genug Alternativen und es wäre IMHO eine Frechheit, sich so auf ein einziges Produkt zu beschränken. Na ja - warten wir ab wie es mit Crysis und UT07 wird.

Dass heutzutage immer mehr spezielle Aufgaben verteilt werden ist wohl unaufhaltsam und einzig richtig .. wenn man überlegt, dass es früher keine GPU gab, die CPU also auch die 2D Berechnung übernommen hat. Ebenso, dass es nun komplette Grafikkarten mit eigenem Speicher und Prozessor gibt, North- und Southbridge und so weiter. Dennoch halte ich so eine Karte für sinnlos, der Trend geht in richtung Multi Core - eine andere Art der Parallelisierung und Aufgabenverteilung - und das ist wie schon gesagt einzig richtig. Das gute ist nebenbei, dass man mit Multi Cores dann ja nicht nur zusätzliche Physik-, KI- usw. Berechnungen und Koordinationsaufgaben in Spielen berechnen kann, sondern auch in anderen Anwendung die immens große parallele Rechenpower sinnvoll nutzen kann.

Ansonsten finde ich die Lösung, den speziellen Physik Beschleuniger auf der Grafikkarte zu installieren, ebenso viel sinnvoller. Wenn man überlegt, dass Ageias PhysX noch auf PCI basiert, wird das für 32-faches PCI-Express kein Problem sein, noch zusätzliche Physik Datenströme zu transferieren.

Man sollte sich einfach mal das hier angucken .. hat mich echt vom Hocker gehauen.

@MountWalker
Dann stell dir mal vor, dass heutige CPUs diese 100 Physik Elemente nur nebenbei berechnen. Die meisten Spiele können heutzutage immernoch nur mit Single Core CPUs umgehen. Du kannst nicht einfach so eine dumme Rechnung aufstellen, dass man die Leistung eines Chips anhand des Ausmaßes eines kleinen beläufigen Prozesses messen kann. Die theoretische Rechenleistung des PhysX Chips liegt wohl weit unter der eines Conroes. Sicherlich - der PhysX Chip ist dafür auf seine Aufgabe spezialisiert und das ist auch sinnvoll so. Nur wenn man sich überlegt, welch anderweitiger Aufwand dahintersteckt und wie man das softwareseitig ähnlich auf einer CPU optimieren kann, bekommt die Sache wieder ein ganz anderes Bild.
 
Zuletzt bearbeitet:
Gnarf.. ich gebs auf, und halte mich an Nuhr... hier sind Zuviele die meine Sig eher als Programm haben :p
 
m_tree schrieb:
... Dass CPUs aufgrund mangelnder Parallelisierung ungeeignet für Grafikberechnungen sind ist klar, allerdings ist Physikberechnung etwas völlig anderes
Es geht dabei nicht nur um Parallelisierung - wie wie Parallelität bietet denn ein Voodoo Graphics? Ich glaube nicht, dass er mehr als 20 Aufgaben gleichzeitig berechnen kann (er kommt vermutlich nichtmal über zehn, ich finde allerdings gerade kein Data Sheet, wo die Aufgaben drin stehen, die er gleichzeitig in einem Takt erledigen kann) und er arbeitet mit 50 MHz. Jetzt probier mal mit einem Athlon 1 GHz, der nach Adam Riese dann genauso viele Einzelaufgaben in der Minute schafft, Unreal mit der gleichen Qualität und Geschwindigkeit darzustellen, wie mit dem Voodoo Graphics...

Kein Common Purpose Chip der Welt könnte jemals bei gleicher nominaler FLOP-Zahl auf Augenhöhe mit einem Spezialchip sein, egal welches Spezialgebiet - bei Videoberechnungen schafft der hier optimale H.264 1080p Performance zu einem Bruchteil der Kosten und des Stromverbrauches (nichtmal Passivkühlelement nötig, dh. höchstens 5 W Verlustleistung) eines für diese Aufgabe ebenbürtigen General Purpose Processors (probier mal ob dein CPU das überhaupt ohne Hilfe eines Videochips auf deiner Grafikkarte schafft ohne Frames auszulassen oder die Wiedergabe zu verzögern) - und witzigerweise ist beim Berechnen der Videobilder imo gar nichts parallel...

m_tree schrieb:
... @MountWalker
Dann stell dir mal vor, dass heutige CPUs diese 100 Physik Elemente nur nebenbei berechnen. ...
Die c't, übrigens die einzige deutsche Computerzeitschrift, die einige kommerzielle Produkte auch schon als komplett nutzlos beschrieben hat, geht in der Tabelle davon aus, dass ein Kern des veranschlagten Prozessors komplett und nur für Physik genutzt wird, während alles andere vom anderen Kern erledigt wird. Also genau das, was sich Leute wie du so vorstellen.

m_tree schrieb:
... Die theoretische Rechenleistung des PhysX Chips liegt wohl weit unter der eines Conroes.
Die FLOP-Zahl ist in der Tabelle angegeben, PhysX ist, das soll die Tabelle zeigen, wesentlich effizienter im Umwandeln von "Rechenleistung" in Ergebnisse. Das hat auch einen Grund, du kannst für einen General Purpose Prozessor keinen Code schreiben, der so effizient ist, wie für einen Spezialchip.

Den Artikel der c't findet ihr in dieser Ausgabe, online ist er allerdings nicht.
 
Zuletzt bearbeitet:
Zurück
Oben