News Intel und AMD/ATi mit Havok gegen Nvidia

@ Neocroth

PhysX lief von anfang an auch auf jeder X86-GPCPU. Der Umfang der physikalischen Berechnungen hängt natürlich von der speziell dafür bereitstehenden Rechenleistung ab - das ist bei Havok und HavokFX allerdings nicht anders, profitiert ein Havokspiel von Grafikchipleistung ist jeder General-Purpose-Prozessor zu lahm dafür. ;)
 
krankte aber an der zwingend benötigten Physikbeschleunigerkarte
Das ist so nicht richtig - auch ohne Karte kann ein Programmierer das PhysX SDK nutzen. Dann wird die Karte per CPU emuliert. Das Spiel Two Worlds ist ein Beispiel dafür.
 
Physx an sich gefiel mir immer recht gut, weil es teiweise korrekter zu arbeiten scheint als Havok. Dass hohe Physikdetails bei Physx nur mit entsprechender Karte gingen ist nicht gerade verwunderlich, wenn man bedenkt, was dann auf dem Monitor abgeht. Allerdings steht die Entwicklung bei Havok auch nicht still.

Interessant wäre es jetzt, wenn NV AMD/ATI Physx-hardware Lizenzen kostenlos anbietet, um den eigenen Standard zu pushen. Ansonsten wird wohl eher Intel das Rennen machen, deren Marktmacht ist nun mal gewaltig. Ich glaube nämlich wirklich nicht, dass der Durchschnittsentwickler für zwei Physikpfade programmieren wird.
 
Einerseits denken hier viele AMD+Intel gegen Nvidia, da hat Nvidia keine Chance.
Aber sieht man sich an auf wievielen "Blockbuster" Spielen das "The way it's ment to be played" Logo drauf ist, kann ich mir nicht vorstellen dass alle Entwickler Nvidia den Rücken zukehren und sich auf AMD oder Intel einschießen.
Allerdings haben Intel und AMD zusammen im CPU und GPU Markt so hohe Anteile, dass Nvidia ziemlich alleine und verlassen seine 30% GPU Marktanteil zu verteidigen hat, und somit es schwer haben wird die Programmierer von CUDA zu überzeugen wenn 70%GPU und 100% CPU Marktanteil bei AMD+Intel liegen.
(Ich mein jetzt Destktop PC Hardware und keine Konsolen, Server oder Mininotebooks, sollte einer jetzt auf die Idee kommen meine Marktanteile zu kritisieren.
Außerdem sind das nur gedachte Schätzungen.)

Wer da wohl den längeren Atem hat bzw. das größere Kapital hat?
Vielleicht bringt Nvidia Unterstützung für beides mit, Havok und CUDA, und versucht natürlich seine hauseigene Physix Engine bei Spielen ein wenig besser aussehen zu lassen.
Damit könnten Sie auf lange Sicht immer mehr Spieler auf Ihre Seite locken was aber meiner Meinung nach vielleicht zu aufwendig und eventuell zu teuer sein könnte.
 
stimt xxxx, auch für intel ist es wichtig, dass amd/ati mit dabei ist, aber meiner meinung nach nicht so wichtig, wie für amd/ati. falls intel ein entsprechend gutes ergebnis liefert, die spielemacher aber nicht übrzeugt bekommt, die eigene lösung zu unterstützen, steht ihnen der weg microsoft noch offen. ich könnte mir durchaus vorstellen, dass intel, wie auch immer, ms dazu drängt, entsprechende schnittstellen für das eigene produkt in windows über direct x zu implementieren. dieser weg wäre langwieriger und steiniger, würde aber auch zu dem gewünschten ergebnis führen.
nvidia hingegen würde darauf achten, dass die von ihnen "unterstützten" spiele die entsprechende schnittstellen direkt implementiert hätten.
würde amd/ati also nicht mit intel in dieser sache zusammenarbeiten, würden sie draussen im regen bleiben, während intel und nvidia im trockenen sitzen *vorausgesetzt dass amd/ati nicht eine unglaublich geniale, einfache und kostengünstige lösung aus eigenregie erstellen könnte*. und das wollte ich damit verdeutlichen. amd/ati macht aus eigener sicht das richtige, wenn man die aktuelle situation betrachtet.
 
Ich verstehe nicht, wieso so viele Leute denken, PhysX würde nur auf PhysX Karten / NVidia Karten laufen (ein Beitrag, der das behauptet hat, wurde sogar von CB als wichtig markiert!). Das SDK gibts für x86, x64, PS3, XBox360...
Die Leistung und die Features sind ebenfalls beeindruckend (setze es bei nem Hobbyprojekt ein).
 
MountWalker schrieb:
@ Neocroth

PhysX lief von anfang an auch auf jeder X86-GPCPU. Der Umfang der physikalischen Berechnungen hängt natürlich von der speziell dafür bereitstehenden Rechenleistung ab - das ist bei Havok und HavokFX allerdings nicht anders, profitiert ein Havokspiel von Grafikchipleistung ist jeder General-Purpose-Prozessor zu lahm dafür. ;)

Caphalor schrieb:
Ich verstehe nicht, wieso so viele Leute denken, PhysX würde nur auf PhysX Karten / NVidia Karten laufen (ein Beitrag, der das behauptet hat, wurde sogar von CB als wichtig markiert!). Das SDK gibts für x86, x64, PS3, XBox360...
Die Leistung und die Features sind ebenfalls beeindruckend (setze es bei nem Hobbyprojekt ein).

Das stimmt schon. Nur hat nVidia wenig Interesse daran, dass Entwickler PhysX verwenden und dieses dann auf der CPU laufen lassen anstatt über CUDA auf der GPU. Ist ja auch mehr als logisch - man verwendet PhysX als Mittel zum Zweck, um mehr Grafikchips zu verkaufen, einen anderen Grund hat die Akquisition für nVidia nie gehabt. Man würde sich also ins eigene Fleisch schneiden, wenn man den Support für PhysX auf CPU großzügig ausbaut.
 
Wo ist da nun Neues im Text?
 
ich glaube mal nicht das intel nvidia weghauen tut. denn . was nehmen die gamer? NVidia + Intel . Zumindest die meisten. und eig immer wenn man irgendwo einen pc in der 1000€ preisklasse nimmt, von der stange, is nvidia drin. siehe auch hp und dell, sehr große unternehmen, die haben auch nur alle NVidia.

Johannes

PS: alle gamer die auf nvidia verzichten wollen melden sich bei mir^^
 
Havok ist die Physik-Engine, die im Spiel eingebunden wird oder auch vorher spgar modifiziert wird, wie bei Half-Life 2 + Modifikationen.

Diese Hardwarebeschleuniger-Karte ist nur dafür da, dass die Physik InGame schneller berechnet wird und (ich vermute mal) die CPU entlastet wird.
Nvidia hat durch den Kauf von PhysiX jetzt geplant diese Hardwarebeschleunigungs-Hardware in die Grafikkarten einzu"bauen".

Aber ATI versucht jetzt, sich mit Havok zusammen setzt und nur an der Software der Havok-Engine rumpfeilt?

Hab den Part von Nvidia und PhysiX sozusagen schon verstanden aber hab nicht verstanden, was genau ATI machen will...
(versteh den Abschnitt nicht)

Bitte helfen! (interessiert mich sehr:))
 
Zuletzt bearbeitet: (Fehler)
Kommt die Havok-engine nicht von dem spiel apache-Havok, das ca. 2000 erschienen ist.
Das würde mich mal interressieren.
 
Ich finde es mal wieder geil, wieviele hier das böse Nvidia wegbashen, aber hinterher doch die Karten kaufen...naja macht doch was ihr wollt.

Und noch was: Das Intel bei dem ganzen mit drin steckt und ebenfalls gegen NV ist, steht nirgends auch nur mit einem Wort geschrieben! Das sind alles Vermutungen, da Havoc zu Intel gehört...also bitte erstmal lesen und dann was dazu sagen.

Wenn ich mir so die sigs angucke, sehe ich, dass die schärfsten (oder auch verblödetsten) Kommentare von ATI usern kommen...ich weiß schon was das zu bedeuten hat besonders bei diesem Thema (Fanboy Mist)
 
havok gibts doch schon ewig in zig spielen.

schon max payne hatte damals havok unterstützung.

und ich finde auch, es macht zur zeit mehr sinn, wenn die cpu die physik berechnet(havok), die sich eh langweilt, als dass die eh überlastetet gpu an der physik rumrechnet.(physix)

von daher ist havok eh die bessere wahl in sachen physik
 
Da gibt es Meinung, die einem richtig die Haare am Rücken aufstellen.
Eine solche Entscheidung hat doch bitte gar nichts mit Feindschaft und Klagen in anderen Geschäftsbereichen zu tun. AMDs Unterstützung für Havok war ja sehr naheliegend. Sobald Intel mit einer eigenen GPU kommt, werden sie massiv Geld ausgeben, um die Entwicklungsstudios zur Optimierung auf ihre Produkte zu überreden - Havok Physikbeschleunigung inklusive. Somit ist das eine strategische Entscheidung mit Weitsicht. AMD stellt sich einfach auf die Seite des Gewinners. Intel freut das natürlich, da sie so indirekt Nvidia wieder mal eine auswischen konnten. Eventuell wird AMD ja auch Physix unterstützen. Das wurde ja nie ausgeschlossen. Sie haben immer betont, möglichst technologie- und plattformunabhängig agieren zu wollen.
Und zu den feuchten Träumen in Punkto CPU von Nvidia. Sehen wir es mal realistisch. AMD hat den Anschluß verloren und VIA ist ein winziges Lichtchen am Markt. Intel kann man einfach schwer vom Trohn stoßen - vor allem nicht im Bereich ihrer Kernkompetenz. Da Bedarf es mahr als nur einer Zusammenarbeit zwischen Nvidia und VIA.

MfG
 
cosmicparty schrieb:
und ich finde auch, es macht zur zeit mehr sinn, wenn die cpu die physik berechnet(havok), die sich eh langweilt, als dass die eh überlastetet gpu an der physik rumrechnet.(physix)
Du hast wohl den Artikel nicht ganz verstanden. Auch die Havok Engine soll die GPU zur Berechnung heranziehen. Hier geht es nicht um CPU vs. GPU.

Es ist schon sinnvoll die Berechnungen auf die GPU zu verlagern. Das die CPU sich langweilt stimmt auch nicht. Die hat heut zu Tage mehr Aufgaben zu erledigen als sonst.
Alleine mit der KI könnten die Entwickler die komplette CPU auslasten, wenn sie wollten. Die Sound-Engines werden auch immer aufwendiger und dann steigt natürlich auch der Berechnungsaufwand der Grafikengine, je komplexer das gerenderte Bild ist.

Es ist ja nicht so, als ob die Graka alleine für den grafischen Teil verantwortlich ist. Das Ganze muss natürlich erst von der CPU zusammengesetzt und berechnet werden. Jedes Objekt auf dem Bildschirmm belastet die CPU und da kann in der Summe ganz schön was zusammen kommen.
Da ist es schon sinnvoll die Physik auszulagern zumal so auch viele Objekte gar nicht mehr von der CPU verwaltet werden müssen.

Außedem muss man auch immer die Leistungsvorteile der GPU berücksichtigen. Intel hat letztens noch eine Partikeldemo gezeigt die mit 50.000-60.000 Paritkeln auf einem Nehalem mit lediglich 15-20 fps lief.
nVidia lieferte gleich eine ähnliche Demo mit 65.000 Partikeln nach, die auf einer 9800 GTX 300 fps erreichte und auf den neuen GT200'er Chips auf 600 fps kommen soll.


Eine ähnliche Demo gab es auch mal zur Stoffsimulation. Auf einem Intel Quad Core 2 Extreme lief die Demo mit 12 fps, während sie auf einer 8800 GTS mit 200 fps lief. Auf der PhysX Karte lief die Demo auch "nur" mit 150-180 fps.

GPUs sind also schon sehr gut geeignet um Physiksimulationen durchzuführen. Es erfordert nur wenig Resourcen der GPU um die CPU massiv zu entlasten. Die Physik nicht auszulagern wäre wirklich fahrlässig und eine Verschwendung von Resourcen.
 
Zuletzt bearbeitet:
Was sich durchsetzt kommt wohl darauf an, wie Nvidia die Umsetzung plant.

Wenn NV davon ausgeht, dass wir eine zweite Grafikkarte benötigen, dann wird sich Havok durchsetzen, weil 4-Kern-CPU´s bald Standard sind und günstiger als eine zweite Grafikkarte. Ausserdem haben CPU´s einen Stromsparmodus und solange Grafikkarten das nicht haben, verbraten dann zwei Karten am Desktop unnötige Energie.

Ich würd lieber irgendwann einen Quad kaufen bei dem dann auf zwei Kernen die Physik läuft, als eine zweite Grafikkarte für die Physikbereichnung.

Anders würde es aussehen, wenn Nvidia die Physikberechnung so in den Grafikkarten integrieren könnte, dass die generelle Performance der GPU durch Physikberechnungen nicht gedrückt wird. Also z. B. ein zusätzlicher Chip (oder zusätzliche Shader - wenn die das denn können) zur Physikberechnung, zusätzlich zur GPU.

Nur in soeinem Fall und auch dann nur, wenn sich das nicht in einer krassen Preiserhöhung der Grafikkarte niederschlägt, hätte NV imho eine Chance.

Wenn Spiele so anfordernd sind wie Crysis und die Grafikkarte muss zusätzlich noch die Physik berechnen, dann sind 30 fps ja ein Wunschtraum. Zumindest in meiner Lieblingsauflösung 1920 x 1200).

Aber nebenher kommts natürlich auch auf die Physikeffekte an. Man kann also gespannt sein, was sich durchsetzt und warum es das tut.
 
LazyGarfield schrieb:
Wenn NV davon ausgeht, dass wir eine zweite Grafikkarte benötigen, dann wird sich Havok durchsetzen, weil 4-Kern-CPU´s bald Standard sind und günstiger als eine zweite Grafikkarte.
Du wirst nur eine Karte benötigen.

Ausserdem haben CPU´s einen Stromsparmodus und solange Grafikkarten das nicht haben, verbraten dann zwei Karten am Desktop unnötige Energie.
Was sich bei nVidia jetzt auch ändern wird. Wenn man zwei Grakas im Rechner hat (Zum Beispiel eine Richtige und eine OnBoard), dann wird die richtige Karte komplett abgeschaltet und nur noch der OnBoard Chip verwendet, solange die Leistung der anderen Karte nicht gefordert wird.
Hat man nur eine Karte im Rechner geht sie im normalen Desktopbetrieb wenigstens in den Stromsparmodus und schaltet Teile der GPU ab und senkt die Taktfrequenz.


Also z. B. ein zusätzlicher Chip (oder zusätzliche Shader - wenn die das denn können) zur Physikberechnung, zusätzlich zur GPU.
Dann stellt sich aber die Frage, warum sie diese zusätzlichen Shader nicht zur Grafikberechnung einsetzen sollten, wenn sie für die Physikberechnungen nicht benötigt werden.
Es ist schon gut so, dass die Shader universell für Beides eingesetzt werden können. Der Benutzer wird dann ja sicherlich auch in den Spieleeinstellungen die Möglichkeit haben die GPU Leistung frei zu verteilen. Wenn man mehr Wert auf Grafik legt stellt man die Grafiksettings höher ein und wenn man viel Wert auf gute Physikefekte liegt, wählt man hohe Physikeinstellungen.

Ich gehe aber ohnehin davon aus, dass die Physiksimulationen im Normalfall die Grafikleistung kaum bis gar nicht beeinflussen. Lediglich ein paar % der Leistung wird an die Physkberechnung gehen.



Aber nebenher kommts natürlich auch auf die Physikeffekte an. Man kann also gespannt sein, was sich durchsetzt und warum es das tut.
Jo. Simmt.
die nächsten Jahre werden sehr interessant, was die Interaktivität der virtuellen Welt angeht.


PS:
nVidia ermöglicht es anscheinend doch die Physik auch auf den GF8 und GF9 Karten berechnen zu lassen.
According to current plan, confirmed by high ranked Nvidia executives, a driver that will drive PhysX on Geforce 8 and 9 GPUs will come at least a few weeks after announcement of GTX 280.

Da die Chips seit der G80'er Serie alle CUDA-fähig sind war das grundsätzlich kein Problem, aber mich wundert es schon ein wenig, dass sie es ermöglichen die Physik auch auf den älteren Karten zu berechnen. Ich hatte eigentlich erwartet, dass sie dieses Feature nur den neuen Chips ermöglichen würden um den Absatz der Karten voranzutreiben.

Anscheinend ist Ihnen aber eine möglichst schnelle Verbreitung und Etablierung der PhysX Engine wichtiger, was ich auch durchaus verstehen kann. nVidia muss sich jetzt in's Zeug legen und schnell so eine Art Quasi-Standard schaffen, bevor AMD und Intel mit ihrer Havok Engine soweit sein.
 
Zuletzt bearbeitet:
dass nv physix auch für die g80 und g92 bringt hat eigentlich einen ganz banalen grund: der g92 ist auch weiterhin in der mittelklasse der aktuelle chip, das feature wirkt sich also verkaufsfördernd aus. der g80 ist weitestgehend identisch zum g92, weshalb das unterbinden von physix auf den g80 gps wohl eher schwer sein wird.
 
Bei Sätzen wie:
"Erfolg hatte man dennoch vorzuweisen, als Nvidia das Unternehmen Anfang 2008 übernahm."
stellen sich mir als selbstständigem Kaufmann die Nackenhaare auf.

Sowas ist kein Erfolg, sondern Versagen.

:freak:
 
Zurück
Oben