Probleme mit Geforce 7900 GTX

ebastuart

Cadet 3rd Year
Registriert
Apr. 2006
Beiträge
49
Moin,
hab grade meinen neuen PC zusammen gebaut und den durch den 3Dmark05 laufen lassen.

Mein System

Windows XP Pro SP1
ASUS P5DL2 Deluxe
Intel Pentium4 3,4Ghz, 2mb Cache
2 GB DDR2 RAM 667Mhz
XFX Geforce 7900 GTX (650/1600) mit den neuensten Treiber 84.21

Naja Ergebnis 8000 Punkte (bei 1024 ohne AA/AF) ... was eigenlich nicht sein kann.
Laut deviresen test im inet schafft die Grafikkarte stets über 10000.

Was mich auch stört. wenn ich Coolbits raufpacke um meine Mhz zahl zu sehen, zeigt der an 650/800 anstatt 650/1600 wie laut hersteller.

Auf einen anderen PC mit einer Geforce 6600GT wird die Taktung richtig angezeigt mit 500/1000.

Ich weiss das es sich hier bei um Double Data Rate: 800x2 =1600, aber wieso zeigt der mir nicht den richtigen wert an, wie es sich gehört?

Gibt es Tools, wo ich das überprüfen kann. 3DMark05 bzw 06, RivaTune und EVEREST Ultimate Edition sind anscheind nicht zu sowas fähig. Nicht bei der Karte.

Habe grad noch Oblivion installiert ... wieder mal ein schlag ins gesicht.

Was mich auch echt umhaupt. Starte das Spiel und der sagt mir bei Auto-Erkennung "mittlere details". Hab trotzdem 1024 mit alles hoch gestellt. Nja die Frames bewegen sich draussen zwischen 30 bis 15 (ab und zu noch weiter drunter) und das Spiel ruckelt öfters.

Zum Vergleich hab ich ja den Rechner von meinem Bruder ...
Pentium 4 3,0Ghz, 2 GB Ram, Geforce 6600GT und bei den läuft das spiel bei 1024 mit bisschen weniger als alles Hoch beinah vollkommen flüssig.

Wie kommts. Was kann ich dran ändern. Bzw. was muss ich bei der System einrichtung beachten damit ich auch die gewünschten ergebnisse erhalte. Liegt vielleicht auch was an der anderen Hardware... falsche Kombination ??

Bitte hilft mir.

Stuart
 
Also, wenn ich davon ausgehen darf, dass die Karte auch am PCIe Netzstecker hängt, hast du recht. 8000 ist für den BonzenPC viel zu wenig, du solltest schon
10 000 haben.

Allerdings darfst du auch nit vergessen dass Oblivion ein Hadwarekiller ist. Also solltest du da nit 100fps erwarten, egal was du einstellst.

Aber guck bitte mal im BIOS, wie der RAM taktet. Dann gib mal Temps unter Vollast an bei der Grafikkarte.

Hört sich sehr merkwürdig an.
Aber gib auch mal den Namen von der CPU an, aber 2MB Cache machen mich stutzig, der kann es auch nit schuld sein.

Was mich auch stört. wenn ich Coolbits raufpacke um meine Mhz zahl zu sehen, zeigt der an 650/800 anstatt 650/1600 wie laut hersteller.

Auf einen anderen PC mit einer Geforce 6600GT wird die Taktung richtig angezeigt mit 500/1000.

Ich weiss das es sich hier bei um Double Data Rate: 800x2 =1600, aber wieso zeigt der mir nicht den richtigen wert an, wie es sich gehört?

Nun die 7900GTX hat auch anderen Speicher [GDDR3] als die 6600GT, daher auch der Unterschied beim anzeigen der Taktzahl. Die Angaben werden aus dem BIOS ausgelesen, wenn dort 800 abgelegt ist, dann zeigt CoolBits das auch an. Das sollte nicht stören, CPUz zeigt beim RAM auch nur den tatsächlichen Takt an.
[Bitte korrigieren falss ich Müll laber :freak: ]
 
Zuletzt bearbeitet:
Hi,

hm lol das is natürlich echt nicht das Potential der Grafikkarte.
Schonmal im BIOS geguckt ob PCIe alles Enabled ist usw. ?

Wenn alles nichts hilft, musste dich mal an den Support wenden,
(Wo hastes den gekauft`?)

Hast du eigendlich noch die Extra Strom Versorgung an die Graka gemacht?

MfG. Mitsch
 
B@dehose schrieb:
Nun die 7900GTX hat auch anderen Speicher [GDDR3] als die 6600GT, daher auch der Unterschied beim anzeigen der Taktzahl.

Eine 6600gt hat doch auch GDDR3 Ram...

@topic: Du kannst mal andere Graka-Treiber versuchen. V-Sync hast hoffentlich im Treiber deaktiviert, genauso wie AA und AF. Chipsatztreiber updaten, Bios auf aktuellen Stand bringen. Mehr fällt mir grad auch net ein.
 
Zuletzt bearbeitet:
Also unter volllast (3dmark)

Ist die CPU als auch die Grafikkarte bei 50 C°.

Hier noch mal die genauen Daten

Pine XFX GeForce 7900 GTX 1600, 512MB GDDR3, 2x DVI, TV-out, PCIe (PV-T71F-YDL)

Intel Pentium 4 651 3.40GHz Sockel-775 boxed, 200MHz FSB, 2048kB Cache

G.Skill DIMM Kit 2048MB PC2-667 DDR2 CL4-4-4-12 (F2-5400PHU2-2GBLA) (Laufen in Dual Channel)

ASUS P5LD2 Deluxe, i945P (dual PC2-667 DDR2) (90-MBL1A0-G0EAY)

Habe im BIOS beim Speicher manuel noch DDR2 667 einstellt. Keine Änderung.

Zu Oblvion: Mir ist schon bewusst das Oblivion so ein Hardwarefresser ist, deshalb hab ich auch mein Konto geplündert um das ma vernünftig spielen zu können, aber wenn ich sehe das ich beinah genaus so auf einen halb so teuren PC wie von meiner bruder läuft, da wird man stuzig und ich bin laut Hersteller bei dein High-Prefermens angaben.

Darum muss ich versuchen raus finden was hier falsch läuft, den die teile hab ich erste am 20/21 04. bekommen (über Alternate/Mix-Computer/Bestseller-PC). Noch wäre Zeit für ein Wideruf bzw. Umtausch. Wenn es an der CPU liegt ... als Flaschenhals, wo vielleicht die Gaka nicht mit macht ... ARG ich weiss es nicht.

Wie ist es den bei Reklamation von CPU, wenn man die schon eingesetz hat? Geht das, bzw. heisst es Wertverminderung?

Achso .. auf dem Motherboard ist noch ein EZ_Plug ... (ne standart stombuchse, wie die auch bei IDE laufwerken ist... ) laut handbuch ist die aber nur wenn man eine zweite gaka drauf hat, aus den grund hab ich das weggelassen.
 
Zuletzt bearbeitet:
ebastuart schrieb:
Auf einen anderen PC mit einer Geforce 6600GT wird die Taktung richtig angezeigt mit 500/1000.
ehrm ich will ja nichts sagen aber ne 6600GT hat 500/900;)
Ich hab selber eine!
 
@Chiller: Es gibt 6600gts mit 1000 mhz Speichertakt und mit 900 mhz speichertakt. 6600gts für AGP haben meistens 900, für PCIe meistens 1000 mhz speichertakt.;)
 
schau mal was passiert wenn du das SP2 von Win draufgiebst. hast du vorher ne ATI drinnen gehabt? scan auf viren/spyware, kann sein das da was im hintergrund läuft. virenscanner könnte auch stören.
 
Also das Forceware Treibermenü zeigt generell nicht die effektive Speichertaktrate an.
Andere Tools tun das is aber au scheiss egal.

Deine Punkte stimmen sicher wegen CPU !
 
Wie alt ist denn der P4 von ihm?

Das kann doch nit sein. Lass dir das auch nit erzählen, hatte am Anfang auch nur 3000 Pkt. mit der 6600gt, auch wenn sie nur 2900 bei CB macht war mir das zu wenig..

Hab an den Timings gepfeilt, BIOS Update usw. und siehe da, standart 3400-3500.

Allerings kenn ich mich mit Den Intel Prozzis nit so gut aus, mein letzter war en 1,6GHz mit 100MHz FSB :D

EDIT

Wo ist der Unterschied zwischen Prescott und Cedar Mill Kern? Genau das ist der Unterschied zum 650...

Aber wenn du doch en neune PC hohlst, warum dann keinen Pentium D?
 
Zuletzt bearbeitet:
1. teste mal 3dMark03 ... ist recht CPU unabhängig und poste auch den CPU-Score.
2. Oblivion ist verbuggt, warte auf den Patch oder forste in den Foren nach "Tuningsmöglichkeiten"... Leistungsteigerungen im dreistelligen Betrag möglich
3. bei futuremark auf der Seite gibt es die Möglichkeit (ORB) nach den Ergebnissen zu suchen
 
Hi,
also an der Karte liegts sicherlich nicht. Habe ja eine ähnliche Konfiguration (gut, der Prozzi hat nur 1MB Cache) und komme auch nur auf knapp 8000 Punkte im 3DMark05. Der scheint wohl CPU-limitierter zu sein als man denkt.:rolleyes:
Mit einer 7800GTX256MB hatte ich zum Vergleich ca. 7100 Punkte bei ansonsten gleicher PC-Konfiguaration.

Im 06er dagegen ist das Ergebnis voll in Ordnung---->5044.

@ebastuart: wieviel Punkte erreichst Du denn im 3DMark06?

Mfg mmic
 
Zurück
Oben