Neue Agp Graka

Markus3D

Cadet 3rd Year
Registriert
Apr. 2006
Beiträge
34
Hi, ich habe derzeit einen Athlon Xp 3000+ mit 1gig Ram und ne alte 9600 Pro.
Ich suche ne neue Graka für mein System (AGP], ich schwanke zwischen der x800 xt und der 7800gs.
Die Sache mit der x800 xt ist die fehlende sm3 unterstützung, allerdings weiss ich nicht wie wichtig die in wirklichkeit ist.
Ausserdem ist in meinem Rechner noch ein 300 Watt Netzteil eingebaut.
Dieses werde ich wohl auf jeden fall wechseln müssen, egal für welche Graka ich mich entscheide?
 
Wenns vom Geld her reicht dann auf jeden Fall eine 7800 GS ansonsten eben eine x800. Hab mich selber auch für die 7800 GS entschieden (hatte davor auch eine 9600xt) und hab es bis jetzt nicht bereut. Bleibt eben eine Preissache.
 
Hatte gut 1Jahr eine 6800. Also zu SM 3.0 kann ich sagen das dass echt kein Mensch braucht. Vom Preis her kann ich dir nur zu einer Radeon raten.

Schau dir mal die Netzteil Werte an und Post sie. Ich denke das 300Watt wird problemlos ausreichen.

Bei meinem: (L1) 12V 8A (L2) 12V 14.5A
 
Zuletzt bearbeitet:
@ Markus3D: Wieviel willste denn so ausgeben?

Die SM3.0 Performance ist auf der Geforce 6er Reihe nicht so der Hammer. Ich würde dir eher zu ner 7800GS raten. Für relativ viel Euronen gibst sogar ne vollwertige 7800GT mit 512MB RAM. *Klick*

mFg tAk
 
Ich hab hier ein paar daten zum Netzteil, ich hoffe das sie weiterhelfen:

Fortron FSP300-60GTP

Max Output Power 300W (+3.3V & +5V = 200 W Max)
DC Output : +3.3V 28.0A / +5V 30.0A
Fuse Rating: 6.3A, 230V ~

@tAk Maximal 300 Euro, aber natürlich sehr gerne weniger.
 
Kein schwein braucht 512MB bei so einer Karte ;)

Irgendwo müsste noch die 12V leistung stehen das ist für die Grafikkarte das wichtigste.
 
Zuletzt bearbeitet:
@ BAD 12V 15.0 A

Das ist das Problem das die meinungen bei Sm 3.0 auseinandergehen.
Manche sagen das bei einer neuen Graka sm 3.0 auf jeden fall dabei sein muss, andere sagen dass es nicht so wichtig ist.
 
In einigen Games wie AOE3 war ich sogar froh das ich kein SM 3.0 hatte.

Zu den 15A dürfte schon knapp werden aber kannst es ja mal versuchen befohr dus auswechselst. Mir wäre eine 7800 GS viel zu teuer. Ich habe vor 2 Monaten eine x800 XT PE für 200Euro gekauft darin sehe ich bedeutend mehr sinn als für eine leicht schnellere Grafikkarte 100Euro mehr zu zahlen. Zum SM 3.0 ja das ist ansichts sache, auf jeden falls ist es mir egal das ich SM 3.0 nicht mehr habe.
 
Zuletzt bearbeitet:
Danke an alle für die Antworten, ich werde mir die Sache nochmal durch den Kopf gehen lassen.
Ich tendiere aber zur x800 xt weil die 300 Euro für eine 7800gs doch ziemlich viel sind.
 
0K und wer Spielt so was wie UT2007 bei Hochsten Details und 5-10Fps? :D
 
Das ist genau so, wie zwischen 128MB und 256MB Grafikram. Heutzutage laufen die Spiele deutlich flüssiger mit 256MB VRAM. Die Texturmenge sowie die Qualität der Texturen erfordern halt immer mehr Grafikspeicher. 512MB bringen im Moment noch nicht sehr viel, gib ich dir recht. Aber ich denke gerade UT 2007 wirds dir danken. :D

mFg tAk
 
Heute eine Karte zu kaufen, die kein SM3.0 unterstützt, ist mehr als fragwürdig.

Die 7800GS oder &G für AGP ist Ihr Geld allemal wert.

Es gibt genug Spiele die es Dir Danken, z.b. Splinter Cell 3. Es sieht einfach besser aus.

Ich selber habe "nur" ne 6800GT und kann alle Spiele, die ich spielen will, flüssig spielen.

Wer sagt, SM 3.0 lohnt sich nicht, hat meiner Meinung keine Ahnung. Genausowenig ist die Aussage, dass kein Mensch 512 MB braucht Unfung.

BF2, Quake und Co. danken es ebenfalls.

Was die Zukunftsicherheit angeht, bist Du mit SM 3.0 und 512 MB auf der Sicheren Seite.

Eines sollte Dir allerdings klar sein, Deine CPU limiitiert.

Ich persönlich würde eine 7800 GS oder GT nehmen!
 
@ BAD

Wenn du mal z.B. Oblivion mit HDR gespielt hast, dann wirst du solche Aussagen bezüglich des SM 3.0 nicht mehr treffen.
Alleine HDR wäre für mich ein Kaufgrund einer SM 3.0 Karte.
Denn das ist eine der wenigen neuen Errungenschaften, die die Atmosphäre in Spielen nocheinmal deutlich verbessert haben.
 
Seppuku schrieb:
@ BAD

Wenn du mal z.B. Oblivion mit HDR gespielt hast, dann wirst du solche Aussagen bezüglich des SM 3.0 nicht mehr treffen.
Alleine HDR wäre für mich ein Kaufgrund einer SM 3.0 Karte.
Denn das ist eine der wenigen neuen Errungenschaften, die die Atmosphäre in Spielen nocheinmal deutlich verbessert haben.

Wie kommst du drauf das meine Karte kein HDR kann? HDR hat mit SM 3.0 nichts zu tun.

Ich habe AOE3 und andere Spiele mit meiner alten Leadtek 6800 gespielt und bei mir war es so das ich damit absolut überhaupt nichts anfangen konnte.
 
Zuletzt bearbeitet:
Mir ist schon klar, dass HDR mit SM 3.0 im Grunde nichts zu tun hat.
Aber so wie es bei den meisten Spielen programmiert ist, läuft es nur auf SM 3.0 Karten. Half Life 2 ist da eine Ausnahme.
Also hat HDR indirekt doch etwas mit SM 3.0 zu tun.

Und bei Oblivion kannst du HDR nicht mit einer x800 aktivieren. Zumindest geht es bei mir nicht.

Bei AOE3 sind das aber eher Bloomeffekte, oder täusche ich mich da gerade?
 
Seppuku schrieb:
@ BAD
Wenn du mal z.B. Oblivion mit HDR gespielt hast, dann ...
Amen. Es mag ja games geben, bei denen HDR atmosphärisch nicht sooo viel reisst, aber speziell bei Oblivion liegen stimmungstechnisch WELTEN zwischen HDR-on und HDR-off.

Oblivion definitiv nie wieder ohne. :D

D_R
 
BAD schrieb:
Wie kommst du drauf das meine Karte kein HDR kann? HDR hat mit SM 3.0 nichts zu tun.

Ich habe AOE3 und andere Spiele mit meiner alten Leadtek 6800 gespielt und bei mir war es so das ich damit absolut überhaupt nichts anfangen konnte.

1. Ich dachte HDR konnte bei der X8er Generation aber nur simuliert werden,da sie nur über 8 Bit Kanal verfügen.

2. Ich bin absolut zufrieden mit meiner auf eine GT gmoddeter Leadtek und in den meisten Spielen kann ich mit Hdr flüssig zoggn (türlich kein Oblivion ;))
 
Also echtes HDRR (um es jetzt auch einmal richtig zu bezeichnen ;)) kann bis jetzt keine aktuelle Karte, da es eine Genauigkeit von 32 Bit pro Kanal vorschreibt.
Die Geforce 6 und 7 und die Radeon X1xxx haben eine Genauigkeit von 16bit.
Alle anderen DirectX 9 Karten haben, wie gordon88 schon geschrieben hat, eine Genauigkeit von 8 bit und müssen z.B. in Lost Cost die HDRR-Effekte (höchstwahrscheinlich) simulieren.
 
Zurück
Oben