Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GTX 480: Zur CeBIT gezeigt, verfügbar ab April?
- Ersteller Volker
- Erstellt am
- Zur News: GTX 480: Zur CeBIT gezeigt, verfügbar ab April?
GHad
Lieutenant
- Registriert
- Apr. 2008
- Beiträge
- 760
Meine Spekulationen (falls es jemand interessiert):
- GTX460 > HD5850, ca. 20% schneller, ca. 225W ab 350€
- GTX480 > HD5870, ca. 30% schneller, ca. 275W ab 450€
Vorstellung zur CEBit, Release und NDA-Freigabe Anfang April, Einigermaßen verfügbar ab Mai, Midrange ab Juli, Performance & LowCost ab September
Greetz,
GHad
PS: CPU-PhysX ist lahm und ineffizient
- GTX460 > HD5850, ca. 20% schneller, ca. 225W ab 350€
- GTX480 > HD5870, ca. 30% schneller, ca. 275W ab 450€
Vorstellung zur CEBit, Release und NDA-Freigabe Anfang April, Einigermaßen verfügbar ab Mai, Midrange ab Juli, Performance & LowCost ab September
Greetz,
GHad
PS: CPU-PhysX ist lahm und ineffizient
- Registriert
- Feb. 2009
- Beiträge
- 679
Früher war CPUPhysX nämlich mal schneller und heutsotage auf einmal total langsam...
CPU-PhysX ist nur dort langsam, wo es auch GPU-PhysX gibt.
CPU-Physx ist an sich nicht langsam oder ineffizient......
AwesomeSauce
Lt. Junior Grade
- Registriert
- Juli 2009
- Beiträge
- 396
@Jocotty
Davon will ich jetzt endlich mal Benchmarks sehen. Ansonsten wieder einmal eine billige Anschuldigung
Die Skalierung von PhysX über mehrere Kerne liegt ganz alleine in der Verantwortung der Entwickler, nicht von Nvidia. In Vantage soll CPU-PhysX bis zu 16 Kerne ansprechen können...
Davon will ich jetzt endlich mal Benchmarks sehen. Ansonsten wieder einmal eine billige Anschuldigung
Sylvestris
Commodore
- Registriert
- März 2009
- Beiträge
- 4.181
ich hätte geschätzt, dass die "kleinere" Fermi also GTX470/460 (wie sie auch immmer heißen wird) ~ so schnell ist wie die HD5870.
Die GTX480 dann entsprechend schneller (vllt. 20% oder so). Mir erscheint es möglich dass die Verhältnisse so ähnlich sind wie bei der alten GraKa Generation (HD48xx UND gtx2xx), sind natürlich auch nur Spekulationen, bin aber auch mal sehr gespannt auf Benchmarks und Preise (v.a. von der kleineren
)
Die GTX480 dann entsprechend schneller (vllt. 20% oder so). Mir erscheint es möglich dass die Verhältnisse so ähnlich sind wie bei der alten GraKa Generation (HD48xx UND gtx2xx), sind natürlich auch nur Spekulationen, bin aber auch mal sehr gespannt auf Benchmarks und Preise (v.a. von der kleineren
c80
Banned
- Registriert
- Okt. 2009
- Beiträge
- 334
Seppuku schrieb:@ c80
Seit wann sagt das Alter einer Konsole oder eines Spiels etwas darüber aus, wie viel Spass man haben kann??
Dann vergleiche doch mal ein Spiel, dass es auf beiden Plattformen gibt z.B. Batman AA. Auf der Xbox haste eine viel niedrigere Auflösung, kleinere Texture, kein PhysX etc. und das sind jetzt nur die Aspekte die mit der GraKa zu tun haben. Am PC ist alles mindestens genauso gut wie auf der Konsole aber etliches ist deutlich besser. Also machts am PC mehr Spass. Oder fällt dir vielleicht was ein warum es am PC weniger Spass machen sollte?!?
Masterchief79
Captain
- Registriert
- Juni 2009
- Beiträge
- 3.289
GHad schrieb:- GTX460 > HD5850, ca. 20% schneller, ca. 225W ab 350€
- GTX480 > HD5870, ca. 30% schneller, ca. 275W ab 450€
So wie es momentan aussieht (!) werden wohl für die große Fermi-Karte eher über 500€ fällig werden. Leistung: Brachial. Preis: Tscha, ebenfalls...
Zudem finde ich es noch ein "bisschen" zu früh, um große Mutmaßungen über den Stromverbrauch anzustellen. Es gibt ja nicht mal Taktraten. Es könnte zwar etwa so hinkommen, wie du es sagst, aber NV braucht auch für zb. die HD5850 nen Konkurrenten. Die verbraucht ja so um die 170W und leistet trotzdem ne Menge, besonders macht sie nen ordentlichen Teil mehr aus als die 5870 (wirtschaftlich gesehen).
Wenn die da nicht sofort ne Konkurrenz parat haben, siehts düster aus.
Außerdem wird ja das große Geld mit den Low-End und Mid-Range Karten gemacht, und so wies aussieht, ist ATi jetzt komplett draußen und NV steht sogar noch nen Monat vor den ersten High-End Karten.
Am Ende verschiebt sich das um über ein halbes Jahr. Das wäre verdammt nochmal _NICHT GUT_ ...
Thomson1981
Lt. Commander
- Registriert
- Sep. 2008
- Beiträge
- 1.254
Meiner Meinung nach sollten sich Nvidia und ATI/AMD wirklich einfach einigen,indem ATI/AMD an Nvidia ein bisschen Lizenzgeld bezahlt und dafür dann die Technologie erhält,ebenfalls GPU PhysX auf ATI/AMD Grafikkarten nutzen zu können,wenn nötig dann eben GPU PhysX über die Open CL/Direct Compute Schnittstelle bei ATI/AMD Grafikkarten,anstatt über die Nvidia exklussive CUDA Schnittstelle.
Davon hätten dann wirklich alle etwas,Wir hätten endlich richtig gute Physik auf dem PC Spiele Massenmarkt und Intel würde dabei gleichzeitig durch eine Boykottierung der Havoc Engine zumindestens teilweise das Wasser abgegraben werden.
Warum AMD/ATI da noch immer lieber Intel unterstützt und auf GPU Havoc Physik setzt,anstatt sich lieber mit Nvidia zusammenzutun und PhysX zu unterstützen,ist mir immer noch ein Rätsel.
Gerade weil ja Intel der größere Gegner für AMD/ATI ist,als Nvidia.
Davon hätten dann wirklich alle etwas,Wir hätten endlich richtig gute Physik auf dem PC Spiele Massenmarkt und Intel würde dabei gleichzeitig durch eine Boykottierung der Havoc Engine zumindestens teilweise das Wasser abgegraben werden.
Warum AMD/ATI da noch immer lieber Intel unterstützt und auf GPU Havoc Physik setzt,anstatt sich lieber mit Nvidia zusammenzutun und PhysX zu unterstützen,ist mir immer noch ein Rätsel.
Gerade weil ja Intel der größere Gegner für AMD/ATI ist,als Nvidia.
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.689
Äh, nein. Wenn dem so wäre, stünden wir noch bei Pong. Schei0 Texturen, kein AF und fehlendes AA springt ins Auge imo. Spaß hängt nicht zwingend mit Optik zusammen, aber oft.Schaffe89 schrieb:Leute die im laufenden Spiel dadrauf noch achten sind sowieso Freaks.
AwesomeSauce
Lt. Junior Grade
- Registriert
- Juli 2009
- Beiträge
- 396
Wofür hast du dann 2xHD5850? (Gut bei dir bin ich mit dieser Frage wohl an der falschen AdresseSchaffe89 schrieb:Es geht nicht immer darum, wo was besser aussieht. Leute die im laufenden Spiel dadrauf noch achten sind sowieso Freaks.
Mark Rein (EPIC Games) sagte einmal:
Wo er Recht hat, hat er RechtYou know, people are such snobs, with this "oh, it's not about graphics" thing. That's such nonsense. It's totally about graphics!
GHad
Lieutenant
- Registriert
- Apr. 2008
- Beiträge
- 760
@Masterchief
Deswegen hab ich ja geschrieben: Spekulationen. Ich denke eben dass eine so große Die und so viele Transistoren eben entsprechend Leistung fressen werden und auf der anderen Seite treibt das die reinen Chipkosten nach oben durch schlechtere Yields.
Das die neuen Grafikkarten schneller sein werden als ATI/AMD Karten muss so sein, sonst könnte NVidia sich den Launch gleich sparen und ein Redesign auf 28nm anfangen.
Und wie gesagt, bis es DX11 Karten für 120€ von NVidia gibt, hab ich meine HD5770 garantiert bereits über 6 Monate. Wozu ewig warten bei dem Preis und der Performance?
Greetz,
GHad
Deswegen hab ich ja geschrieben: Spekulationen. Ich denke eben dass eine so große Die und so viele Transistoren eben entsprechend Leistung fressen werden und auf der anderen Seite treibt das die reinen Chipkosten nach oben durch schlechtere Yields.
Das die neuen Grafikkarten schneller sein werden als ATI/AMD Karten muss so sein, sonst könnte NVidia sich den Launch gleich sparen und ein Redesign auf 28nm anfangen.
Und wie gesagt, bis es DX11 Karten für 120€ von NVidia gibt, hab ich meine HD5770 garantiert bereits über 6 Monate. Wozu ewig warten bei dem Preis und der Performance?
Greetz,
GHad
Schaffe89
Banned
- Registriert
- Sep. 2008
- Beiträge
- 7.933
Nur weil ich Bildqualität gut und interessamt finde, heißt das noch lange nicht, dass ich die immer brauche.
Seit ihr oberflächlich.
Außerdem gings darum, man könne mit alten Spielen nicht so viel Spaß haben, wenn das alte Spiel "gut" ist sehe ich da kein Problem.
Anscheinend seit ihr bei PCGH aber schon zu verwöhnt mit euen ständigen Textur-Mods.^^
Seit ihr oberflächlich.
Nicht gleich übertreiben. Eventuell auch den Zusammenhang mal beachten. ;-)y33H@ schrieb:Wenn dem so wäre, stünden wir noch bei Pong. Schei0 Texturen,
Anscheinend seit ihr bei PCGH aber schon zu verwöhnt mit euen ständigen Textur-Mods.^^
Zuletzt bearbeitet:
AwesomeSauce
Lt. Junior Grade
- Registriert
- Juli 2009
- Beiträge
- 396
@Lübke
Zu diesen Verhandlungen gibt es solche und solche Gerüchte. Es weiss niemand genau, was da wirklich abgelaufen ist...
Zu diesen Verhandlungen gibt es solche und solche Gerüchte. Es weiss niemand genau, was da wirklich abgelaufen ist...
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.689
@ Schaffe89
Augenkrebs trübt halt das (Spielspaß-)Bild
Und ja, matschige Texturen gehen mal gar nicht (Ausnahmen wie DAO bestätigen die Regel).
Btw: 2x HD5850 und noch ne Powercolor HD5770? Machst mal n GPU-Z-Shot des CF-Sys samt CPU-Z bitte
Augenkrebs trübt halt das (Spielspaß-)Bild
Btw: 2x HD5850 und noch ne Powercolor HD5770? Machst mal n GPU-Z-Shot des CF-Sys samt CPU-Z bitte
c80
Banned
- Registriert
- Okt. 2009
- Beiträge
- 334
Schaffe89 schrieb:Es geht nicht immer darum, wo was besser aussieht. Leute die im laufenden Spiel dadrauf noch achten sind sowieso Freaks.
Ich spiel derzeit mit meiner Freundin Super Mario am alten 64ger Nintendo durch, macht n Haufen Fun.^^
Ich finde New Super Mario Brothers auf der Wii viel besser. Vor allem wegen der Grafik. Macht sich einfach Besser auf dem großen LCD-TV.