13% mehr Spiel FPS als Geforce Ultra

Registriert
Juni 2007
Beiträge
5.928
Hatt den schon Jemand Eröffnet.http://www.pcgameshardware.de/?menu=browser&article_id=629502&image_id=764408
<b>Geforce 9800 GX2</b>: Prototyp - Weitere Bilder finden Sie in der Galerie (Bild: Chiphell)


10 FPS ist ja schon mal nicht schlecht. Na Die Leistungsaufnahme wird ja nicht gerade wenig sein
ein 6Pin UND Ein 8Pin Anschuss.

Schöne Sache die Karte mit Verbindung eines Wolfdale 8600 Intel. Dann dürfte Crysis ja gut Laufen.

Falsche Spalte kann man das Verschieben Sorry.
 
Zuletzt bearbeitet:
Ich hätte definitiv mehr von diesem Monster erwartet. Aber das kommt ja hoffentlich noch mit den Treibern :evillol:
 
Da kommt nix mehr mit Treibern und das die GX2 es nicht bringt, war klar ...

cYa
 
Fast schon erbärmlich die benchs, ich kapier nicht wieso nvidia jetzt nichts auf den Markt bringt was wieder alles rockt. Haben doch 15 Monate Zeit gehabt was ordentliches zu entwickeln, mal sehen was dieses Jahr noch so ansteht ...

edit: na wenn das so ist^^ etwas mehr hab ich auch erwartet, dann sind wir mal weiterhin gespannt :D
 
Zuletzt bearbeitet:
@marantz: nVidia will weiterhin die GTX & Ultra absetzen denn es gibt ja keine vergleichbare Produkte von der Konkurrenz - daher lohnt sich für die eine neue High-End Generation noch nicht. (warum auch?)
 
naja doch mit der 3870x2 hat (wenn die 9800GX2 wirklich so schlecht ist) ATI wieder die Leistungskrone
 
Enttäuschend finde ich das 3D Mark Ergebnis, welches unter dem folgenden Link präsentiert wird: http://www.pcgameshardware.de/?article_id=629460

Mit einem Core 2 Quad Q9550 erreicht die 9800GX2 @ defalut gerade einmal 14.180 Punkte.
Wenn der Benchmark wirklich mit Standard Settings @1280x1024 getestet wurde, so ist das ein eher blamables Ergebnis.
Klar ist ein 3D Mark Ergebnis längst nicht 100 prozentig aussagekräftig, aber einen Vergleich mit anderen Grafikkarten ermöglicht dieser immer.

Ich verweise gerne auf diese News, wo die Werte der Hd 3870 X2 vorgestellt wurden.
 
war mir schon vor Wochen klar - die HD3870 X2 zieht der 9800 X2 weit davon.., logisch oder?^^
 
Erst mal abwarten, die Taktraten der X2 sind mit 825/900 (statt 775/1125) ja bekannt, bei der GX2 ist imo nichts bekannt. Es ist aber anzunehmen, dass sie langsamer als eine G92-GTS taket, so bekommt man die Abwärme eher in den Griff. CF skaliert oft besser als SLI, daher bezieht die X2 ihren Speed auch hierher.

cYa
 
ich muss mich leider von meiner strikten ati freien zone trennen ^^
denn in den nächten 2 monaten wird sich bei mir ein hd3870x2 auf einem X38 (maximus formula) einfinden und bald auch crossfire :)
das ergebnis der GF9800GX2 ist ja mehr als nur erbärmlich! also ich hätte aufjedenfall mehr von nvidia erwartet und eine karte die gerade mal 10% mehr leistung als eine ultra bietet und dann um die 550€ kostet!
ich hatte eine karte erwartet die neue maßstäbe in sachen performance setzt und nicht nur um den prophithunger der leitenden bosse von nvidia zu befriedigen!
 
Ich verstehe nicht das ihr alles was das steht für bare Münze nehmt.

Ich meine ich gönne es ATI wenn sie wieder mla die Performancekrone haben und es wird wahrscheinlich auch so kommen, aber ich habe hier bei den Benches noch keine Validierung oder ähnliches gesehen.
Zudem sind die Benches von oben nur eine simulation gewesen, da kam die 9800gx2 nie zum einsatz:

http://www.xtremesystems.org/forums/showthread.php?t=171932

Und zu den 3D Mark points hab ich noch keinen screen gesehen das hat nur jemand hingeschrieben:

http://forums.vr-zone.com/showthread.php?t=229048

Klasse, das kann jeder.

Normalerweise seid ihr kritischer, jetzt glaubt ihr plötzlich alles was da steht ohne einen gescheiten beweis.

Wie gesagt ich bin kein beleidigter Nvidia Fan, mir ist egal wer vorne ist, wenn es ATI ist kaufe ich gerne ATI, ich hatte auch schon welche und war zufrieden, aber ich finde diese Benches nicht ernst,m selbst PCGH schreibt man soll sie mit vorsicht geniessen.
 
schlechte karten für gx2 :confused_alt:


wieso?

weil --> sie wird wärmer als x2 :rolleyes: ( und mit wakü? könnte problematisch werden bei 2 pcb:rolleyes: ( und wakü für quad sli? --> eine katastrophe:freak:

weil --> sie wird mehr verbrauchen als x2 ( in 2d modus sowieso :hammer_alt:

weil --> sie besitzt kein dx10.1 ( bald einige spiele mit dx10.1 und vista sp1;)

weil --> sie bricht ab ab 8aa ( ab 8aa sehr intresannt für x2 quad cf performance;)

weil --> preis:rolleyes:



zum schluss fehlt noch ihre performance wie die sich gegen x2 schlagen wird:daumen:
 
Leute vergesst es. Wie schon gepostet wurden, ist das nur ein Fake. Die Leistung wird natürlich davon abhängen, wie hoch die Taktraten sind, da es ja nur ein SLI auf einem Board ist mit 2 8800GTs. Der Typ hat einfach angenommen, dass sie um ein Eck niedriger sein werden, was ich aber nicht denke. Wenn, dann wird der Fertigungsprozess eher besser und bei der 8800GT sind noch sehr viel Reserven beim Takt. Von der Kühlung ist das absolut kein Problem, wie die 8800GT eh nicht viel verbraucht. Zwei Karten liegen unter einer 2900XT und auf einem Board wird es auch weniger werden, weil gewisse Dinge nicht doppelt sein müssen z.B. die Steuerungen für DVI etc. Es wird ein Dual Slot Kühler zum Einsatz kommen und die Taktraten werden so weit hochgeschraubt, wie möglich bei der High End Karte vor allem, wenn ATI auch etwas bringt. Wenn die Karte zu warm wird, dann wird einfach ein besserer Kühler verbaut. Das war schon immer so vor allem bei High End Karten. Technisch ist vieles möglich ohne viel Aufwand: https://www.computerbase.de/artikel/grafikkarten/zerotherm-hurricane-hc92-8800-test.742/
Der Kühler ist vom Design her aber auch noch weit weg von optimal nur gibt es eben keinen Markt für Grafikkartenkühler, also macht sich niemand darüber Gedanken außer der Hersteller der Grafikkarten selbst.
 
Ich denke die beiden Karten werden am Ende zeimlich auf dem gleichen Niveau liegen! Mal in einem Spiel die eine mal die andere.

Ich würde mich aber freuen wenn AMD/ATI wieder mal die Leistungskrone auf hätte! Man wird aber wieder mit den Argumenten diskutieren, dass es eigentlich zwei Grafikkarten sind und somit die Leistungskrone immer noch bei Nvidea bleibt! ;)

mfg Kille
 
nicht ganz!
ein PCB=eine Karte.
außerdem bringt Nvidia auch eine GX2 nur mit zwei PCB und was ich bisher an Benchmarks gesehen habe ist die Leistung gegenüber der 3870X2 erbärmlich sollten die Tests stimmen;)
 
Zuletzt bearbeitet:
Nick88 schrieb:
nVidia will weiterhin die GTX & Ultra absetzen
Die Ultra ist bereits EOL.
Jetzt werden nur noch die Lager gelehrt.


@Topic:
Dank Mikroruckler und entsprechend wertlosen FPS Angaben ist die Ultra jederzeit einer (G)X2 Lösung vorzuziehen.
 
Zurück
Oben