Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Bilder und Daten zu Nvidias GeForce 9800 GX2
- Ersteller Parwez
- Erstellt am
- Zur News: Bilder und Daten zu Nvidias GeForce 9800 GX2
Pyroplan
Commander
- Registriert
- Juli 2007
- Beiträge
- 2.714
ich finde nvidia hat jetzt ein problem, da sie noch auf sli setzen.
ati macht ja imemrhin seinen weg richtung nativer multi-gpu-technologie =)
das sollte wesentlich mehr leistung bringen als SLI/CF, da die treiber nciht extra drauf optimiert werden müssen, bzw. es nicht mehr so kompli ist, wie bei sli/cf, hoffe ich zumindest.
ich denke ATI hat gute chancen, wenn sie den R700 gut machen und mit seinem multi-gpu einen neuen weg einschlägt.
Ohnehin sollte es so auch an strom und platz sparen =)
ich hab nämlich keine lust mir demnächst ein stärkeres NT zu kaufen, hab momentan 520W
ati macht ja imemrhin seinen weg richtung nativer multi-gpu-technologie =)
das sollte wesentlich mehr leistung bringen als SLI/CF, da die treiber nciht extra drauf optimiert werden müssen, bzw. es nicht mehr so kompli ist, wie bei sli/cf, hoffe ich zumindest.
ich denke ATI hat gute chancen, wenn sie den R700 gut machen und mit seinem multi-gpu einen neuen weg einschlägt.
Ohnehin sollte es so auch an strom und platz sparen =)
ich hab nämlich keine lust mir demnächst ein stärkeres NT zu kaufen, hab momentan 520W
fromdadarkside
Lt. Commander
- Registriert
- Dez. 2007
- Beiträge
- 1.653
fällt niemandem außer mir auf das die Karten immer größer, schwerer, energiehungriger werden? Wo ist denn da die Entwicklung wenn man anstatt
Motor 2,0l Hubraum 150 PS ersetzt durch Motor 2,0l Hubraum 200 PS
es so macht:
Motor 2,0l Hubraum 150 PS ersetzt durch Motor 3,0l Hubraum 200 PS
Das Beispiel ist zwar schlecht gewählt, aber es sollte verständlich sein. Mich nervt diese Politik, und auch wenn die Karte in den Benchmarks sicher unschlagbar sein wird, "besser" ist sie dadurch nicht.
Motor 2,0l Hubraum 150 PS ersetzt durch Motor 2,0l Hubraum 200 PS
es so macht:
Motor 2,0l Hubraum 150 PS ersetzt durch Motor 3,0l Hubraum 200 PS
Das Beispiel ist zwar schlecht gewählt, aber es sollte verständlich sein. Mich nervt diese Politik, und auch wenn die Karte in den Benchmarks sicher unschlagbar sein wird, "besser" ist sie dadurch nicht.
Graf-von-Rotz
Banned
- Registriert
- Jan. 2007
- Beiträge
- 2.653
Auch aus diesem Grund hoffe ich darauf das der G100 nicht so ein Stromfresser wird.
Ich habe mir erst letztes Jahr mit der GTX mein 550W BeQuiet NT gekauft und wäre erschüttert wenn die neue GTX das Teil mit meiner restlichen Hardware "auslutschen" würde.
Das mit den Netzteilen ist ohnehin eine Sache für sich. Ich weiß noch wie ich damals vor ca. 7 Jahren belächelt wurde als ich mir ein 400W NT eingebaut habe. Heute kommt man damit leider nicht mehr weit
.
Das geht meiner Meinung nach in eine total falsche Richtung. Wenn man heute bei einer Highendkarte unter Last den Verbrauch hat wie noch vor 5-6 Jahren mit dem kompletten Gamerrechner ist irgendwas falsch gelaufen .
Ich habe mir erst letztes Jahr mit der GTX mein 550W BeQuiet NT gekauft und wäre erschüttert wenn die neue GTX das Teil mit meiner restlichen Hardware "auslutschen" würde.
Das mit den Netzteilen ist ohnehin eine Sache für sich. Ich weiß noch wie ich damals vor ca. 7 Jahren belächelt wurde als ich mir ein 400W NT eingebaut habe. Heute kommt man damit leider nicht mehr weit
Das geht meiner Meinung nach in eine total falsche Richtung. Wenn man heute bei einer Highendkarte unter Last den Verbrauch hat wie noch vor 5-6 Jahren mit dem kompletten Gamerrechner ist irgendwas falsch gelaufen .
Zuletzt bearbeitet:
K
Knusperklaus
Gast
also interessanter fänd ich ne HD 3850X2 am besten so für 250€ ^^
Morpheus2911291
Cadet 3rd Year
- Registriert
- Jan. 2008
- Beiträge
- 43
@coupefx2
http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1476325/nvidia.html
Hier steht auch noch was zur GX2 bzw. G100.
Da steht ganz klar, dass erst die GX2 kommt so im Januar, Februar und dann direkt danach im März die G100!!!
http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1476325/nvidia.html
Hier steht auch noch was zur GX2 bzw. G100.
Da steht ganz klar, dass erst die GX2 kommt so im Januar, Februar und dann direkt danach im März die G100!!!
Graf-von-Rotz
Banned
- Registriert
- Jan. 2007
- Beiträge
- 2.653
Na ja bis März halte ich es noch aus (hoffend das Age of Conan am 28.März erscheint) 
Zuletzt bearbeitet:
TheWarrior23
Lt. Commander
- Registriert
- Feb. 2007
- Beiträge
- 1.375
aber eins steht fest,nvidia hat zwar so eine komische namensgebung^^,aber sie komme nwenigstens aus dem knick und versuchen in jedem preissegment gut mitzuspielen.
ati hingegen lässt sich immer so feiern!außer die letzten grakas,die sind wirklich gut,aber bis mal der r700 kommt,hat derweil nvidia 2 grakas die an der spitze alleine sind!
ati hingegen lässt sich immer so feiern!außer die letzten grakas,die sind wirklich gut,aber bis mal der r700 kommt,hat derweil nvidia 2 grakas die an der spitze alleine sind!
Morpheus2911291
Cadet 3rd Year
- Registriert
- Jan. 2008
- Beiträge
- 43
Ja bis März ist ja gar nit mehr so lange, und dann zog ich bis zum umfallen!!! 


@fromdadarkside
kann sein das ich was an den augen hab, aber die karte ist irgendwie nicht größer als eine 8800Ultra
und was sie im vergleich zu ihrer leistung verbraucht müssen tests erstmal zeigen
glaube kaum das man das anhand eines bildes erkennen kann
kann sein das ich was an den augen hab, aber die karte ist irgendwie nicht größer als eine 8800Ultra
und was sie im vergleich zu ihrer leistung verbraucht müssen tests erstmal zeigen
glaube kaum das man das anhand eines bildes erkennen kann
zappels
Lieutenant
- Registriert
- Dez. 2004
- Beiträge
- 696
bei toms hardware gibt ne preisangabe von 449$ .... schon sehr komisch das ganze... damit wäre sie nur minimal teurer als eine oc gts 512MB... also ich warte mal ab... wenn die eh kein 10.1 kann und der hdmi on board port ista uch interessant, aber... ton ausgabe? ach abwarten und tee trinken.
Einhörnchen
Rear Admiral
- Registriert
- März 2007
- Beiträge
- 5.177
@coupefx2
http://www.gamestar.de/news/pc/hardw...25/nvidia.html
Hier steht auch noch was zur GX2 bzw. G100.
Da steht ganz klar, dass erst die GX2 kommt so im Januar, Februar und dann direkt danach im März die G100!!!
Gamestar bezieht sich hier auf Fudzilla. Mal schauen, was die in der Vergangenheit so kluges von sich gegeben haben:
Fudzilla schrieb:19. Dezember: Geforce 9800 ist der G100 und kommt im März
(sowohl Datum und Chip sind falsch)
10. Dezember: D8E kommt im Januar
(Datum und Bezeichnung falsch, ist der D9E)
Die raten einfach nur blind rum und Gamestar zitiert fleißig von denen.
Wieso redet ihr denn von der GTX als G100? In den HardOCP Foren schreiben die Redakteure, dass sie eher von einem normalen G92 mit höheren Taktraten ausgehen.
D.h.:
- 9800 GX2: Dual G92
- 9800 GTX: Single G92 mit höheren Taktraten, erlaubt jedoch 3-Wege-SLI
Strategisch wäre es nur schwer nachvolziehbar, eine 9800 GX2 für 450EUR auf den Markt zu bringen und 1 Monat später den Nachfolger (meinetwegen 600EUR), welcher dann so viel besser ist und auch noch DX10.1 unterstützt. Wer kauft dann noch die 9800 GX2?
Zuletzt bearbeitet:
Opa-Knack
Ensign
- Registriert
- Mai 2007
- Beiträge
- 132
Naja, hatte ne 7950gx2 und wirklich lohnen tun sich solche Dual-GPU-Karten nicht wirklich lieber auf die nächste Generation warten, als jetzt sowas zu kaufen. Da hole ich mir liebr zwei gebrauchte 8800GTX und mach normales SLI, auch wenn man dafür auf die verdammten Nvidia Chipsätze zurückgreifen muss. Bin mal gespannt wie sich dann die neuen Dual-GPUs von ATI und Nvidia im P/L verhalten.
nighteeeeey
Commodore
- Registriert
- Jan. 2007
- Beiträge
- 4.262
für den preis ist das aber relativ günstig :-/ wenn sie 30% schneller als ne ultra sein soll?
dann stimmt doch da irgendwas nicht....
und das ding sieht nicht mehr aus wie ne grake sondern eher wie ein kleines server case....das passt schon gar nicht mehr in mein gehäuse rein
und das ding sieht nicht mehr aus wie ne grake sondern eher wie ein kleines server case....das passt schon gar nicht mehr in mein gehäuse rein
Suxxess
Admiral
- Registriert
- Feb. 2005
- Beiträge
- 7.255
450 $ + Märchensteuer => 500 € 
Wenn sie wirklich zirca 380 € kosten würde, dann wäre die Karte schon preislich sehr attraktiv da ist jede Ultra Karte teurer.
Und ihr vergesst ein großes Marktsegment. Auf Intel Chipsätzen ist kein SLI möglich, aber mit der Karte würde selbst dort quasi karteninternes SLI funktionieren. Ich will französischen Atomstrom für 12 Cent / kWh.
Aber abwarten und Tee trinken, der große Wurf war das nicht, aber für die 3D Mark Krone sollte es reichen.
Wenn sie wirklich zirca 380 € kosten würde, dann wäre die Karte schon preislich sehr attraktiv da ist jede Ultra Karte teurer.
Und ihr vergesst ein großes Marktsegment. Auf Intel Chipsätzen ist kein SLI möglich, aber mit der Karte würde selbst dort quasi karteninternes SLI funktionieren. Ich will französischen Atomstrom für 12 Cent / kWh.
Aber abwarten und Tee trinken, der große Wurf war das nicht, aber für die 3D Mark Krone sollte es reichen.
elite-kampfsau
Commander
- Registriert
- Juli 2007
- Beiträge
- 2.509
Naja, die können die wohl kaum für 600 Euro verkaufen, wenn 80% der Leute noch in ein rund 100 Euro teures NT investieren müssen.
40 Ampere auf der 12V-Schiene ...
So wird das nix ...
MfG
Jens
40 Ampere auf der 12V-Schiene ...
So wird das nix ...
MfG
Jens
Crysis-zocka
Lt. Junior Grade
- Registriert
- Sep. 2007
- Beiträge
- 335
Ne, wiegesagt, ein Optical Anschluss ist nur zur Optik da.
Man kann damit also nichts anfangen, nur bestaunen.
Man kann damit also nichts anfangen, nur bestaunen.
Ähnliche Themen
- Antworten
- 64
- Aufrufe
- 9.701
- Antworten
- 86
- Aufrufe
- 8.945
- Antworten
- 31
- Aufrufe
- 4.156
- Antworten
- 134
- Aufrufe
- 13.850