News ATi präsentiert „CrossFire Physics“

Man müsste ja dann ein Board mit 3 PCI-E Steckplätzen für Grakas haben, wenn man mal von der 7950 GX2 absieht!

Ich bleib bei meiner Meinung von Vorher.

Was für Karten gibt es noch für normales PCI?-Die haben ganz bestimmt nicht genug Power für aufwendige Shaderberechnungen egal welcher Art!

Ausserdem ist der PCI-Bus ja jetzt schon am Limit!-Dann noch zusätzlichen Traffic für Physikberechnungen?-Ich lach dann später!
 
Also das is doch nur ein konzept!
Ihr tut ja schon, als es alles zu kaufen geben würde.
Ich selbst hätte auch nie erwartet, dass die gx2 so hammer teil werden würde und vlt wird das genauso mit dem system hier von ati
und niemand zwingt euch 3 grakas zu kaufen oder steht das irgendwo im grundgesetzt, dass ab sofort jeder 3 grakas braucht ? es geht ja auch "nur" mit zwei
wenn es für sowas keinen markt gäbe, würde sowas nicht auf den markt kommen. vlt zielt ati damit garnich auf gamer sonder auf entwickler....

ich sag nur abwarten und tee trinken
 
Nochmal:-Was soll den das alles?-Nicht NV hat mit SLI und Dual-GPUs auf einem PCB angefangen sondern die allseits beliebte (Gott habe sie selig) und massiv innovative Firma 3Dfx!

Ich finde z.B. das 7950GX2-Design absolut genial!-Wenn der Preis stimmt (550-600E) und die Verfügbarkeit stimmen.

Ich persönlich finde die Anstrengungen der GPU-Firmen sehr gut! -Bald werden beschleunigte Physik (bessere Interaktion und oder Aussehen) wie AA/AF zum gewohnten Bild gehören.

Ich freu mich darauf.-Wenn ich dann noch so klangvolle Namen wie Havok höre, dann:D !

Ich bin mir sicher, das HavokFX (egal ob mit NV oder ATI) ein fetter Erfolg wird! Spätestens mit der nächsten Generation von GPUs wird auch kein SLI oder CF-Gespann für gute Physikpower nötig sein.

Wenn Ageia nicht schnell was am Preis ändert und die Performance bzw. die Spieleunterstützung nicht verbessert, dann sehe ich echt schwarz für deren ach so tolle
PPU!
 
Zuletzt bearbeitet:
Interessant finde ich das ganze erst, wenn die Grafikkarten-Hersteller ein gescheites Load-Balancing zwischen Grafik- und Physik-Berechnungen für die Shader Units implementieren. Solange z.B. nVidia darauf besteht, dass man feste Grenzen zieht zwischen welche Units für Grafik und welche für Physik verwendet werden, verschenkt man immer wieder teures Leistungspotenzial an nicht verwendeten Kapazitäten auf einer Seite für die man viel Geld auf den Tisch gelegt hat.

Realistische Physik mag ja ein nettes Zusatzfeature sein - aber für ein gutes Spiel ein leicht verzichtbares Opfer, wenn dafür die Frameraten zu tief in den Keller gezogen werden würden.
 
Wenn eine DirectX 10 Karte wirklich bis 300 W verbraucht und man dann am besten 2 + 1 für Physik drin hat ist man bei 1 KW lockermit CPU usw. Wie soll man das kühlen uns vor allem WAS ist das für eine Energieverschwendung. Wird Zeit für ein Umdenken dabei wie es zum Glück bei Intel statt gefunden hat die ja auch lange auf Stromverbrauch gesch... haben. Ich werd nichts kaufen das mehr als 100 W verbraucht als Grafikkarte(bzw alle GKs zusammen) dann lieber nur 2 Fach AA oder etwas weniger Auflösung.
Der zweite Kern in der CPU ist bei Physikberechnungen leider viel zu langsam (noch).
 
@whynot?: Die entscheidende Größe für Physikberechnungen ist die Gleitkommaleistung (Floating Point Operations per Second = FLOPS). Ich denke, das ist für jeden nachvollziehbar. Mit der Anzahl der Objekte steigt schlicht die Anzahl der Berechnungen.
Selbst der Athlon FX-60 schafft mit einem Kern IM GÜNSTIGSTEN FALL 2 FLOPS pro Takt = 2,6 GHz x 2 = 5,2 GFlops. Die PhysX-Karte schafft ca. 50 GFlops, also rund das 10-fache. Ich schätze auch Havok FX wird in jedem Fall mehr als die CPU schaffen.
Das das ganze aber (noch) zu teuer ist, kann ich nachvollziehen. Ich denke aber, die Preise werden sich einpendeln...
 
um es nochmals zu sagen: Eine CPU ist für die Physik berechnungen nur schlecht geeignet. Da bringt auch ein Dualcoreprozessor rein gar nichts! Für Physik berechnungen werden viele parallele Berechnungen benötigt, was CPU's schlecht können, darum wurden ja auch die Grafikkarten eingeführt, weil solche berechnungen auch stark bei der Grafik zur Anwendungen kommt!!

Eventuel könnte AMD aber mit seinen CO Prozessoren das zumindest auf AMD Systemen ermöglichen. Der Vorteil wäre das jede Anwendung diesen CO-Prozessor nützen könnte.
 
whynot? schrieb:
Und genau das stört mich, es sollte auch mit nur einer gehen ;)

vielleicht fängst du auch mal an nach zu denken? warum sollte das den auf eine karte? warum sollte es auf die cpu? weils billiger ist!? na sicher doch...

den physikchip einfach auf die grafikkarte zu löten wird teuerer als ne extra karte, da das layout komplizierter wird. und auf eine multicore cpu, bei der ein core soviel leistung wie eine solche karte heute bringt wirst du wohl noch jahre warten müssen.


deine vorschläge sind also ganz einfach totaler schwachsinn. dual core bringt nicht mehr leistung weils eben dual core ist. physik berechnen wir seit jahren auf der cpu, dual core oder nicht. und warum wird derzeit soviel in der rechtung probiert? genau, weil das was wir seit jahren machen(physik auf der cpu, falls dus schon wieder vergessen hast...) einfach viel zu langsam ist....



aber das sind wir hier ja nun mitlerweile gewohnt. die physikberechnung auf einen core zu beschränken ist schließlich auch totaler schwachsinn, wenn man schon darauf aus ist die performance zu verbessern.... wenn man das so liest bekommt man echt den eindruck die mehrzahl der poster hier ist der meinung bei einem dual core bekommt man eine 2. cpu gratis dazu... als wären cpus plötzlich doppelt so schnell......
 
@NeoTiger: Das Problem ist, dass Load-Balancing wiederum Overhead erzeugt. Genau darum meine ich ja: Immer ein fauler Kompromiss...
 
Ich glaub die Hersteller haben noch nicht wirklich begriffen dass die leute kein geld haben.

Ich kauf mir doch auch net zwei oder drei CPU´s nur damit ich excel, word und Mediaplayer nutzen kann

Das kann doch net so schwer sein die spiele und die grafikkarte so aufeinander abzustimmen und zu optimieren, dass man auch nach einem jahr mit einer neuen grafikkarte auf höhen details spielen kann ohne sich gleich ne neue kaufen zu müssen bzw. sich eine zweite oder dritte ins system ein zu bauen.....

meine fresse regt mich dieser SLI-, Crossfire- und jetzt auch noch Physikberechnungsquatsch auf
 
Ich finde das einfach ne totale Frechheit, dass die Hersteller so n Wettrüsten machen, der User bleibt dann auf der Strecke. Warum reicht denn nicht ne ganz normale Singlecore CPU (z.b. der a64 3500+) und ne ganz normale Graka (X850XT)? Das ist einfach verrückt. Ich werde sicher nicht 3 Grakas oder ne Physix kaufen! Sollen die Spielehersteller doch mal die Engine so überarbeiten, dass es nicht nur gut aussieht, sondern auch Ressourcen-sparend ist (siehe HL2, gute Grafik, ressourcenmäßig noch akzeptabel.). Ganz ehrlich würde mir die Quali von HL2 in Egoshootern reichen. Ich hab übrigends noch keinen rießigen Unterschied bei der Grafik bemerkt z.b. bei Fear, des sieht net wirklich viel besser aus als HL2 und frisst nur noch Ressourcen. Sowieso könnte man doch endlich mal die 64bit von den CPUs nutzen, die werden ja noch nicht wirklich verwendet. Habe ja selbst nen A64, kann aber nur die 32 Bit nutzen, weils einfach net unterstützt wird. SO EIN SCHEIß!
 
;o)UHum schrieb:
Was soll den das alles?-Nicht NV hat mit SLI und Dual-GPUs auf einem PCB angefangen sondern die allseits beliebte (Gott habe sie selig) und massiv innovative Firma 3Dfx!
Zwar hat NVidia 3Dfx und ihre Ideen aufgekauft.

Das Scalable Link Interface von NVIDIA und die Umsetzung des Scanline Interleaving von 3DFX damals sind technisch 2 verschiede SACHEN!

SLI ist von NVidia eingeführt worden und ATI hat mit CF etwas vergleichbares geschaffen, damit auch hier die Kundschaft bedient wird.
 
tja das ist eben genau der vorteil einer konsole!
die software hersteller können wunderbar auf die hardware optimieren weils ja nur eine kombination gibt un net tausende wie beim rechner. und selbst das klappt nicht immer
eine konsole kommt mit trozdem nicht ins haus - außer meine geliebte PS1 :D
man solchte echt die entwicklungsphasen länger machen das die spiele macher mehr zeit fürs optimieren haben. "innovationen" wie die Physixkarte hin oder her soviel geld gibts kaum bei den meisten im geldbeutel und was noch viel schlimmre ist - die teure hardware ala dual-core wird nicht einmal genuzt da kommt schon was neues und das ganze geht von vorne los ...
irgendwie schön aber auch schade ...
 
_Grisu schrieb:
SLI ist von NVidia eingeführt worden und ATI hat mit CF etwas vergleichbares geschaffen, damit auch hier die Kundschaft bedient wird.

Es mögen zwar verschiedene Techniken sein, aber SLI hat immer noch 3DFX eingeführt. Würde 3DFX noch bestehen, hätte nVidia "kein" SLI. Also nix mit nVidia hat SLI eingeführt... das würde dann jetzt heftige Namenskriege geben wegen Patentsverletzung und und und
 
warum hat Nvidia 3dfx wohl samt patenten un allem drum und dran gekauft?!
genau um jez zB mit dem begriff "SLI" wieder kohle zu machen ...
is ja schließlcih von 3dfx zeiten und früher war ja alles besser :D
 
Meine Güte! Wieso regen sich denn alle so auf?
Die Vorstellung, dass eine zweite Karte Karte, die nach dem Aufrüsten eh übrig ist, mal eben bissl Physik berechnen soll, scheint ja vielen hier grosse Schmerzen zu bereiten. Ist doch keine schlechte Idee wenn es so funktionieren könnte. Wenn diekünftigen Grafikkarten sparsamer werden würden wärs noch besser.
Damit könnte ich mich anfreunden, eine spez. Ageia Physix ist für mich undiskutabel.
Wenn Crossphysix (oder Havok/nVidia) mit einer offenen API (DX10) kommt, dann ist Ageia mit der propritären Schnittstelle, der Karte auf dem alten PCI-Bus und dem Preis, ganz schnell wieder weg. :D
 
@Siberian..Husky

Warscheinlich wirst du recht haben :)

aber ich verstehe nicht wieso man die Physik berrechnung nicht auch in den 2.kern eines Dualcore prozessor auslagern könnte? (also nur die physik in den einen kern und den rest in den anderen)

mfg
 
Zurück
Oben