Von GF8800GTS512 auf GF8800GTX wechseln?

Project-X

Commodore
Registriert
Okt. 2003
Beiträge
5.014
Tagschen allerseits

Seit gestern mache ich mir die gedanke ob es ein Fehlkauf war mir eine GF8800GTS 512 zuzulegen...
Der ist zwar verdammt schnell Ja (Im vergleich zur meine Ex GraKa Radeon HD3870), allerdings habe ich so meine zweifell daran, da ich im Besitz einer 24" Monitor bin und dementsprechend auch in 1920 x 1200 spiele.

Später werde ich mir eine 46" LCD zulegen und es als Primäre Monitor nutzen, und da ist die Auflösung schon leicht kleiner, nämlich 1920 x 1080.

Natürlich wird dies über eine HDMI angesteuert was hier nicht wirklich das Gesprächsthema ist.

Wie erwähnt, wäre es für mich sinnvoll diese GraKa wechsel zu machen?
Ich habe mir der GF8800GTS 512 von ASUS für umgerechnet 178€ erworben.
Ein 8800GTX dagegen würde mich ca. 200€ kosten.

Würde mich auf Euer ratschläge erfreuen.
 
fakt ist, für 24zoll ist eine karte meist net geeignet- zumindestens net in neusten spielen.

da wäre die 9800gx2 was für dich. die 1900er auflösung frisst wie sau.

mein kumpel hat eine 880o gtx und einen 24 zoll tft, der kann schon lange net mehr alles in nativer auflösung spielen.
 
Zuletzt bearbeitet:
Also ich würde dir raten entweder ne HD3870X2 zu holen oder ne 9800GX2 zu holen, ne GTX würde ich mir net holen!
Allerdings würde ich an deiner Stelle, du hast ja keinesfalls ne schlechte Grafikkarte, auf die neue Generation warten, bis wieder (ordentliche) Single-GPU Karten rauskommen!
 
eine 3870x2 ist natürlich auch gut- da billiger. wie es dann mit den treibern ist muss man sehen.

fakt ist, für die hohe auflösung ist solch eine dual gpu karte ideal.
 
hmmm... ein paar Gründe halten mich von Dual Karten bzw. CF/SLI ab.
Ein kleiner Grund ist diesen Mikroruckler denn ich selbst noch nie erlebt habe, und der Hauptgrund sind die Chipsätze für SLI/CF.
Ich hatte schon soooo viele GraKas von beiden Seiten, aber ich benutze lieber einer von nVidia als einer von ATI.
Aber ich lege sehr gerne Wert aufs Übertakten, und da war mein Ex-MoBo mit eine nForce 680i SLI nicht gerade das Gelbe vom Ei.
Der jetzige Board mit der iP35 Chipsatz weisst mir viel mehr zu gefallen, allerdings unterstützt er kein SLI sondern nur CF... :rolleyes:

Hab mir gestern noch die nForce 780i Boards angekuckt und die sehen rechtlich Interessant aus, auch der Preis von jeenseits über 200€ :freak:
Genau wie die nForce 790er Boards.

Bis jetzt liefen bei mir alle Games flüssig mit der Nativen Auflösung sowie bei Aktiven 8x AF und 2x AA (Ausser Crysis :D).

CoD4, NFS PS, Strangehold, C&C3, Timeshift, UT3, Oblivion, Ghost Recon, Bioshock uvm.

Wie gesagt, ausser Crysis... Und dabei habe ich die erst auf Hohe Stufe und nicht Maximal.
Die FPS spielen aber leicht verrückt, wenn ich auf dem Land kämpfe habe ich 20fps+, aber sobald ich ein Blick aufs Meer werfe sinkt die fps auf ca. 7fps :freak:
Ich glaube dies liege an eine Bug? Denn 65% Perfomance einbruch nur bei einen Blick aufs Meer kanns doch nicht sein? Da war mein Radeon HD3870 ja noch schneller... Genau wie mein ExExExEx...GraKa GF8800GTS 640MB :)

Und noch etwas, bei Dual GraKas gehen doch die Speicher aus wenn man bei hohen Auflösungen Spielt, oder? (Siehe CB Test)
Und dabei sind die doch extras für das gemacht worden?
Nach meiner Kenttnisse wäre es besser z.B. 2x 8800GTX im SLI zu betreiben als so eine Dual Chip GraKa zu kaufen bei dem es nur 512MB o 256bit bietet.
 
Zuletzt bearbeitet:
ja aber die schalten dann bei extremen auflösungen noch 8xaa zu- das braucht doch eh keine sau.
 
Zum ersten einmal: Freak :freak:

also ich würde auch ehr sagen, warte bis zum sommer, wenn die neuen karten kommen. kommt doch eh nix neues großartiges raus ! und wenn die aktuellen games laufen, (außnahme wie immer crysis ^^) dann lass es doch erstmal so.

ist alles nur rausgeschmissenes geld, wenn de dir andauernd neue grakas kaufst und wirklich viel bringt das ja auch nicht, wenn mans alle paar tage macht.

verstehe ich dich dann richtig, dass du in den letzten 6 monaten 3 Grakas hattest und jetzt überlegst schon wieder ne vierte zu kaufen ^^ du hast eindeutig zu viel kohle. denk doch mal an die kinder in afrika :stock:
 
Project-X schrieb:
Nach meiner Kenttnisse wäre es besser z.B. 2x 8800GTX im SLI zu betreiben als so eine Dual Chip GraKa zu kaufen bei dem es nur 512MB o 256bit bietet.
Vollkommen richtig, aber so bist du auf ein NV-Board angewiesen.
Wenn du unbedingt eine neue Graka willst, dann würde ich eine 8800GTX kaufen und die alte/n in Ebay etc. verkaufen.
 
Also, bei 1920 x 1200 bräuchte ich warlich Max. 2x AA, oder überhaupt gar nicht.
Aber AF brauche ich, und das 8x :)

Wann kommt eigentlich der GT200 ungefähr raus? Die GF9er Serie (Ausser 9600GT) finde ich für nen dreck... :rolleyes:


@ Rückspiegel

Deine behauptung stimme ich ganz zu ;) Viele die mich nicht kennen würde das gleiche sagen, selbst ich würde das gleiche sagen fals jemand so ist.
Allerdings würden sicher manche Leute anderes denken wenn Sie die Begründung wissen würde.

Also, ich fange mal an mit etwa "Offtopic" :)

Ich bin ein 21j Lehrling, Wohnhaft in der Schweiz.
Wärend meine 4j Ausbildung habe ich kein Lohn! Dafür 14 Wochen Ferien im Jahr ;)
Meine Eltern sind nicht reich, und im vergleich zur vielen anderen bekomme ich weder Taschengeld noch sonstiges.
Ich erarbeite mir das Geld nur Ferienjobs, wiederverkäufe alte Hardwares, sowie durch die sparsame umgang des Essensgeldes die ich für die Wöchentliche Auswärtsessen benötige bei meiner Ausbildungsort.

Viele Jugend in meiner Alter gehen jedes Wochenende saufen, in denn Ausgang und verschiessen massenweise Geld die Sie je nachdem nicht mal selber erarbeiten, ich selbst bleibe oft zuhause oder gehe mit meine Freunden irgendwo anders hin bei dem es nicht so viel Geld braucht wie in den Discos (Wo eh nur schlegerei gibt -.-).

Hoffe jetzt verstehst du mich ;)

Neue PC Hardwares zu kaufen und Sie in den Betrieb zu nehmen macht mich selbst glücklich, und wenn das Wort "Glück" in diesen Fall käuflich zu erwerben ist, dann warum auch nicht?

Da es immer neues herauskommt strebe ich immer nach höheren dingen zu.
Irgendwann gelange ich an eine 30" TFT und dann ist die Fahnenstange auch schon erreicht bei 2560 x 1600 :)
Aber anstatt 1200€ für eine 30" TFT verschiesse ich das Geld lieber als eine Desktop Monitor Replacement LCD ala 46" Full-HD und benutze es auch für Filme schauen :)

So, genug Off Topic :)

Wie erwähnt, deine Aussage ist wahrlich nichts falsches ;)
 
Also ich sag mal so: Es ist zwar Geldverschwendung, sich extra wegen einem Spiel (Hier Crysis) eine neue Grafikkarte zu kaufen. Aber das kurbelt wenigstens die Wirtschaft an :D

Ich würde dir zu einer Dual-Karte raten. Mit besseren Treibern werden die dann bestimmt noch besser laufen und aktuelle Spiele unterstützen bereits zu großen Teilen SLI bzw. CF.
Ob du nun die HD3870X2 (besseres P/L-Verhältnis) oder die 9800GX2 (Bessere Leistung) holst, ist dir überlassen und diese Entscheidung kann dir auch keiner abnehmen.
Du kennst die Tests und ein paar Meinungen, doch letztenendes wird keiner dir die Entscheidung abnehmen.

MfG paxtn
 
Besten dank für euer zahlreiche Meinungen. Ich finde es sehr Interessant von welchen Blickwinkel manche Leute die Sache in einbetracht ziehen.

@ Orangensaft
Ich kann dein Singatur echt verstehen :lol:

@ Paxtn & anderen
Nachdem ich mir etwas mit denn Meinungen hier so befasst habe sowie nochmals die CB Tests so angesehen habe wird mir langsam immer der HD3870 X2 Symphatischer... :)
Auch wenn ich eigentlich kein ATI mehr haben will muss ich in diesen Fall echt nochmals etwas überlegen.

Aber eine allgemein Frage habe ich noch.
Habe gelesen das SLI&CF keine Dual Monitor Betrieb zulässt? Also z.B. 2 Monitore als getrennt ansteuert und denn Sichtfeld erweitert.
Aber fals es so stimmt, warum haben manche Dual karten ala X2 bis zu 4x DVI ausgänge? :freak:
 
Project-X schrieb:
Ein kleiner Grund ist diesen Mikroruckler denn ich selbst noch nie erlebt habe, und der Hauptgrund sind die Chipsätze für SLI/CF.

sorry, aber das thema wird sowas von überbewertet wie der tlb-bug. ich hab zwar kein(e) cf-gespann/x2, aber selbst wenn dort unterschiede von frame zu frame von ca. 2 - 10 ms auftreten sollten, empfinde ich das immer noch besser als wenn ich frameskips/-drops oder durchgehend ruckelnd spielen muss.
 
du kannst schon so viele bildschirme anschließen, allerdings wird die rechenleistung dann nicht mehr kombiniert sondern jeder chip werkelt für sich und die leistung liegt bei der x2 auf dem niveau einer 3870 und bei der gx2 auf dem niveau einer gts wenn ich das richtig verstanden habe.

also ich bin auch der meinung dass einen 8800gtx für ca 200,- € das beste ist, was du machen kannst. wenn du dir den cb-test anschaust steigen die 8800gtx und ultra im ranking, je größer die rechen- un dvor allem speicherlast wird. und wenn alles auf max steht haben selbst die dual-gpu-karten nicht mehr den hauch einer chance gegen die gtx/ultra (2560x1600 8xAA/16xAF). da zukünftige spiele wohl noch speicherlastiger werden, kann man wohl davon ausgehn dass dieser vorsprung sich zukünftig bei immer geringeren einstellungen ergeben wird...

die zahlreichen nachteile und schwächen von multi-gpu wurden ja schon unzählige male hier breitgetreten. also ich bin befürworter der einzel-gpu-lösungen und empfehle daher die 8800gtx, die zu dem auch die mit abstand günstigste karte in dieser leistungsklasse ist.

und wenn man doch unbedingt multi-gpu will gibts bei hohen auflösungen mit zugeschaltetem aa und af wohl nichts schnelleres als zwei 8800gtx/ultra im sli, und mit ca 400,- € wäre ein gespann aus zwei 8800gtx auch noch günstiger als eine gx2. da eine gtx allein die gx2 bei sehr hohen auflösungen schon in grund und boden rendert, brauchen wir hier wohl nich mehr über p/l-verhältnis zu diskutieren^^
 
Zuletzt bearbeitet:
Ich würder dir raten zu warten. Es macht atm imo kaum Sinn auf/um/nachzurüsten. Außerdem hab ich selbst das von dir genannte Ensemble, und (bis auf Crysis) läuft alles @ max. Details in nativer Auflösung (mit OC ist sogar AA noch drin).

Btw, ich bin NICHT anspruchslos was fps angeht.
 
Momentan bin ich immernoch etwas mit geteilter Meinungen :rolleyes:
Entweder warten oder eine GF8800GTX/HD3870X2...

Aber mat_2 und paxtn haben schon recht, wegen 1 Spiel extra aufzurüsten? :freak:
Oder ich bin einfach nur ein Freak :lol::D

@ Lübke
Aber wenn man z.B. ein Spiel spielt wie Oblivion die über 2 Bildschirme breit geht, also mit (z.B. bei 22") 3360 x 1050 Pixel dann rechnet die Grafikkarte immernoch Separat? :freak:
Wenn es z.B. 1 Game wäre für 1 Monitor Ok, aber 1 Game für 2 Monitore oder mehr wie in Flugsimulatoren verstehe ich leider nicht genau wie es Funktioniert...
 
Project-X schrieb:
@ Lübke
Aber wenn man z.B. ein Spiel spielt wie Oblivion die über 2 Bildschirme breit geht, also mit (z.B. bei 22") 3360 x 1050 Pixel dann rechnet die Grafikkarte immernoch Separat? :freak:
Wenn es z.B. 1 Game wäre für 1 Monitor Ok, aber 1 Game für 2 Monitore oder mehr wie in Flugsimulatoren verstehe ich leider nicht genau wie es Funktioniert...

ja, wie soll es sonst funktionieren? grafikkarte 1 nimmt bild vom monitor 1 und 2 vom 2.? woher soll gpu 1 wissen bis wohin bild 1 geht und 2 bis 2? wenn dann die teilung dazwischen ist, woher soll die gpu wissen, was auf bild 1 gerendert wurde und ein 2. identisches fortgesetztes bild auf gpu 2 weiter gerendert wird?

insofern muss jede gpu ein bild berechnen (von genau 2x 1680x1050) und die 2. das darauffolgende.

oder verstehe ich da etwas falsch?
 
ergibt doch keinen sinn, was du da sagst, ... ! auch eine singelkarte kann 2 bildschirme gleichzeitig befeuern, ... !

zudem, ... es wird einfach die auflösung addiert und gut is, ... wo soll dann das problem sein, ein großes bild zu berechnen, ... ?
 
das is ne treiber geschichte. du kannst entweder ein bild strecken oder zwei unabhängige bilder erzeugen. aber wie gesagt das geht mit a. einer einzelnen karte, die dann beides berechnet oder b. mit zwei karten die jede ihren teil berechnen. mit sli, das dann alles berechnet ist das nicht möglich. wenn eine karte an ihre leistungsgrenze stößt, sind zwei einzelne karten zwar schneller, aber zwei einzelkarten bringen jede für sich maximal die leistung einer karte (aufs jeweilige bild bezogen) und das kann man nicht addieren wie bei sli. so wars gemeint... ein 3d-mark zb bringt in beiden fällen die gleiche punktzahl bei multimonitor (wird auf einem monitor ausgeführt). mit sli hätte man aber deutlich mehr punkte.
ich hoffe das war verständlich ausgedrückt? Oo
 
Zuletzt bearbeitet:
claW3581 schrieb:
insofern muss jede gpu ein bild berechnen (von genau 2x 1680x1050) und die 2. das darauffolgende.

das hab ich doch geschrieben, vielleicht nur unglücklich ausgedrückt (mit bild meine ich gesamtes bild, nicht das des monitors).

ein chip berechnet das gesamte bild (in dem falle 2x 1680x1050), wo danach der 2. chip das darauffolgende berechnet.
 
Zurück
Oben