News nVidias G80 kommt mit Physikbeschleunigung

Ich kann mir gut vorstellen, dass Physikberechnung mit DX 10 Wesentlich einfacher und rentabler zu realisieren ist aufgrund des neuen Triebermodells bzw der Pipeline
 
das wird arschgeige äh agoia aber gar nicht gefallen
 
Ageia wird vermutlich gegen Nvidia klagen wenn Nvidia Physik gleich in die GPU integriert. ;) Ihr lacht aber sowas erscheint vollkommen realistisch angesichts der aktuellen Ereignisse.
 
Voyager10 schrieb:
Ageia wird vermutlich gegen Nvidia klagen wenn Nvidia Physik gleich in die GPU integriert. ;) Ihr lacht aber sowas erscheint vollkommen realistisch angesichts der aktuellen Ereignisse.
LOL.. wohl kaum... es sei denn, Ageia hat neuerdings ein Patent auf Physikberechnung angemeldet:rolleyes:
 
Ich glaub das wär schwieriger. Sonst würde Havok schon längst gegen A-GAY-a klagen, denn deren physiksoftware läuft ja auch in "software".
 
da steht was von nem neuen motherboard! das bracht man aber nicht wirklich für ne nvidia G80? oder sollte doch auch auf nem anderen laufen?
 
Schon interessant, wenn die Leute bei nvidia die "unified shader"-Architektur als die große Zukunftsinnovation darstellen, aber der G80 aller Wahrscheinlichkeit nach eben nicht unified shader ist :freak: .

Bezieht sich dann wohl eher auf die übernächste Graka-Generation aus dem Hause nvidia.

Mfg
 
Neo the Dark schrieb:
da steht was von nem neuen motherboard! das bracht man aber nicht wirklich für ne nvidia G80? oder sollte doch auch auf nem anderen laufen?
Nein, das hat mit dme Board nichts zu tun.

Es ging nur darum, dass das Board 3 PCIe x16 Slots hat (wie das Bad Axe).
 
Accuface schrieb:
und mal wieder ist Nvidia die Firma die den Anfang macht, und ATI wird dann wieder nachziehen müssen :lol:
Und wie kommst du darauf? Weist du mehr über den R600 als wir?! Desweiteren hat ATi auch schon Physikberechnungen auf den X1900 Karten gezeigt, von daher wird der R600 auch schon etwas in dieser Art beinhalten wie der G80.

mmic29 schrieb:
Schon interessant, wenn die Leute bei nvidia die "unified shader"-Architektur als die große Zukunftsinnovation darstellen, aber der G80 aller Wahrscheinlichkeit nach eben nicht unified shader ist :freak: .
Naja, nVidias Marketing-Abteilung wird es schon richten und den G80 als Unified Shader vermarkten, sowas kann ja nV sehr gut.

Matt at RC schrieb:
Au ja endlich weg von dieser 100.000 karten wirtschaft das kann ich nur sehr begrüßen.
damit dürften die physix karten ihre zeit schon wieder hinter sich haben, bevor sie überhaupt begonnen hat ;)
Und ATi und nV stellen sich vor das man neben der einen/zwei Grafikkarten die für die Grafik zuständig ist noch eine dritte einbaut für die Physik, von daher ist das wo kaum der richtige Schritt um von der Kartenanzahl runter zu kommen, so kann ich mir auch die Agia Karte in den PC stecken.
 
Zuletzt bearbeitet:
hi

also ich finde das super,endlich hört dieser karten wahrsinn auf !

2 karten sind mehr als genug,in sachen (krach,abwärme,strom).
nvidia geht den richtigen weg,ich freu mich schon auf die quad-core cpu`s zusammen mit zwei g80 gpu`s. :schwärm

und die spiele werden erstmal geil,man ich kanns kaum abwarten.
 
WolleXPD schrieb:
also ich finde das super,endlich hört dieser karten wahrsinn auf !

2 karten sind mehr als genug,in sachen (krach,abwärme,strom).
Wieso Kartenwahnsinn? Ob ich nun eine zusätzliche G80 oder ne PPU-Karte verbaue ist doch am ende das selbe, ich habe eine zusätzliche Karte für Physik im PC. Zudem kommt noch das die Grafikkarten am ende mehr Strom fressen, mehr Wärme erzeugen = mehr Lautstäkre als eine PPU Karte von sich geben ...
 
cpt.nemo schrieb:
Und in den PCIe 1x kommt dann der W-Lan Empfänger für die aktuelle Stromrechnung.:freak:




Ja..................und anstatt von FRAPS gibt es dann STRAPS........zeigt den aktuellen Stromverbrauch beim Zocken an!:freak:

Dann noch ein gutes Benchmarkprogramm.......Strommark 07 Wer verbraucht am meisten!?:evillol:

back to topic!
 
Aufgrund permanent steigender Strompreise (nächstes Jahr nochmal 12 - 15 Prozent) sollten sich die Grafikkartenhersteller eigentlich mal den ökonomischen Gepflogenheiten anpassen. Für mich ist die Physikbeschleunigung in Zeiten von DualCore und demnächst QuadCore reine Geldverschwendung und letztlich Abzocke beim Kunden.
 
Wieso sich eigentlich jedesmal den Kopf zerbrechen wenn irgendein Hersteller etwas angeblich "Neues" entwickelt, denn wenn diese Meldungen zu Tage kommen ist diese vermeintlich Neue Technologie meist schon voll Entwickelt ( siehe Quad-Sli ) dann kommt es meist überteuert auf den Markt und der letztendlich dumme Kunde kauft sich dieses in der Hoffnung etwas zu kaufen was wirklich Neu ist und mal etwas länger als max. 1 Jahr mithalten kann, dann stellt man 2 Monate später fest das dass nächste schon wieder in den Startlöchern steht veröffentlicht zu werden - ich sage "alles Nur berechnete Abzocke der Hersteller"
Ausserdem darf man nicht vergessen das man für alles was an neuer Hardware zur Verfügung steht auch die voll unterstützungsfähige Software braucht und da hängt es doch meist, (z.Bsp. wieviel Prozent 64 bit fähige Software gibts denn schon und wie lange hat es gedauert bis einige der am häufigst verwendeten Progis auch unter 64bit Windows lauffähig waren?
Jeder wollte nen 64bit CPU aber wer konnte die 64bit den auch Software mässig nutzen - keiner!

Das dumme ist das ich selbst das ganze unterstütze indem ich auch ständig meine Hardware aktualisiere denn nach nem Jahr is eh wieder alles veraltet.
 
ich stimme 57 ) @ Mosla zu das muss aufhöhren mit den Strompreisen kann doch nicht sein das weil unsere Computer laufen auch die Stromkosten steigen. Zu den Grafikkarten kann doch nicht sein das die drei PCI-E x16 für die zwei Grafikkarten und eine Physics-Card brauchst.

Früher hieß es mal 2 in 1 oder 3 in 1 soll jetz aber nicht heißen 1 in 3 ect
 
Ich glaube ihr versteht da was falsch. Nvidia spricht doch gerade davon, die Physikberechnung in die Graka mit zu integrieren, d. h. auf Zusatzkarten zu verzichten.
Bringt die Meldung nicht durcheinander: das ASUS-Mainboard hat 3 PCIE-lanes, d.h. aber nicht, dass alle drei durch Grakas belegt werden müssen.

Mfg
 
@ mmic
Damit hast Du Recht! Ich glaube auch, dass ein Teil der Aufregung vor den Releases uebertrieben ist.
Dennoch ist der Trend, zu einem immer hoeheren Stromverbrauch auch deutlich zu sehen. Mein Celeron 333 von 1996 brauchte nur ein 150Watt Netzteil! ;-)

Natuerlich hat ein C2D oder ein G80 ne ganz andere Leistung dennoch ist es schon interessant zu hoeren, dass der R600 (Geruechtekueche) ein eigenes NT bekommen soll!
Abwarten und Tee trinken!

Das Konzept Physikchip und GPU auf einer Karte zu verbinden, finde sehr interessant und zukunftsweisend! Bin schon auf die ersten Benchmarks zwischen G80 und R600 gespannt!
Sooooo lange scheint es ja nicht mehr zu dauern!

Gruss aus China
 
Zurück
Oben