Ist das wirklich alles, was aus der 6800 Ultra raus zu holen ist?

THi.DELTA

Lieutenant
Registriert
Mai 2004
Beiträge
564
Hi Leute, :)

Also erstmal zur Vorgeschichte, habe jetzt nochmal zu geschlagen, und meine 6600GT durch eine Gainward GeForce 6800 Ultra AGP ersetzt.
Soweit alles OK, 3DMark 03 6600GT = 8098 , 6800 Ultra = 12342
3DMark 05 6600GT = 3267 , 6800 Ultra = 5391

Hört sich ja alles ganz gut an.... ;)
Aber jetzt kommts.... Also Riddick, kann ich nicht Flüssig spielen, auf 1024x768 Full Details, und mit Pixel Shader 2.0++ ohne AA und AF..... kommt mir etwas komisch vor...
Bei BF2 ist es so, läuft zu 99% Flüssig auf Full Details, bei 1024x768
Einige denken bestimmt jetzt... was will der Typ..... aber ich denke andere schreiben, und beweisen es auch, das die spiele bei ihnen um einiges besser laufen...

Grafikkarte ist bei meinem 480W Enermax Netzteil an ein eigenen Strang angeschlossen, über den mitgelieferten splitte für den Stang, um beide Stromanschlüsse zu versorgen.

Meine frage ist nur, kann ich etwas flasch gemacht haben??? oder ist das bei meinem Rechner echt alles?
Also gerade bei Riddick dachte ich, das es besser laufen würde, weil sich zur 6600GT nicht viel getan hat, und bei BF2 erhoffte ich mir auch etwas mehr spielraum. :rolleyes:


Mein System:
Pentium 4 HT 3.2 GHZ Prescott, 2x 512 MB DDR400 Infineon Ram Dual Channel, Auf nem P4C800E-Deluxe Mainboard, Audigy 2 ZS Soundkarte, Samsung 120 Gig Festplatte SATA,
Thermaltake Gehäuse, also genug Lüfter, Grafikkarte wird nicht über 65 C°....
Treiber.... Chipsatz und Mainboard usw, alles das neuste, und Grafikkarten Treiber 77.72.
Einstellungen im TZreiber auf Quallität, und nicht hohe Quallität.
Nichts übertaktet.



MFG: Captain :cool_alt:
 
Re: Ist Das wirklich alles, was aus der 6800 Ultra raus zu holen ist???

Hehe, das liegt irgendwie an den Nvidia Treibern, die taugen irgendwie nix, 200Hz, Abstürze, Ruggeln in Spielen bei niedrigen Auflösungen sind nix neues, würd mal verschiedene Treiber testen! der 75er von guru3d.com hat meinem Kumpel geholfen, mann ich bin so froh, dass ich wieder ne ATI hab :D
 
Das stimmt, das der sehr viel Leistung frisst, aber es steht im Spiel selbst dabei, das der für GeForce 6 Karten gedacht ist ;) Und ich würde sagen die schnellste GeForce 6 ist die Ultra, oder die Ultra von Gainward die übertaktet ist... aber das ist ne andere sache.

Andere Frage, kann es sein das ich mit dem anschließen vom Netzteil was falsch gemacht habe, das die Stecker unterschiedliche Volt Zahlen ahben oder sowas... von Netzteilen habe ich kein Plan... :rolleyes:

Und noch ne Frage, Sind die Spannungwerte Gut? Besonders die von CPU? (Bild hängt an)

Danke das Mit den Treibern werde ich mal ausprobieren, aber mit den 75gern, hat man doch diese Schatten Probleme bei BF2, was ist denn mit dem neuen 80ger ???


MFG: Captain
 

Anhänge

  • Spannung.JPG
    Spannung.JPG
    104 KB · Aufrufe: 315
Warum stellst du nicht gleich auf Pixel Shader 3.0? Das ist doch das Aushängschild für eine Geforce 6xxx, oder?
 
m!Captain schrieb:
Hi Leute, :)


3DMark 05 6600GT = 3267 , 6800 Ultra = 5391




MFG: Captain :cool_alt:


lol alos ich bekomm in 3d05 mark mehr punkte und hab ne gt :evillol: . aber nun zu deienm prob. entweder es liegt am treiber oder an der treibereinstellung. lad mal einen screen hoch mit deienn treiber einstellungen.
 
In Riddick gibts keine funktion für Pixel Shader 3.0....

Wie ist das mit den Spannungen??? vor allem CPU, gehört die nicht auf 1.5 oder so... habe kein plan davon :D :D :D
die anderen müssten OK
Und wie war das mit ob ich beim anschließen was falsch gemacht ahben kann?

Hier die Pics, wusste nicht wie ich das sonst machen sollte, ahbe immer weiter runter gescrolt in den einstellungen :D
 

Anhänge

  • Nvidia 1.JPG
    Nvidia 1.JPG
    148,4 KB · Aufrufe: 321
  • Nvidia 2.JPG
    Nvidia 2.JPG
    149,2 KB · Aufrufe: 265
  • Nvidia 3.JPG
    Nvidia 3.JPG
    137,1 KB · Aufrufe: 228
  • Nvidia 4.JPG
    Nvidia 4.JPG
    134,8 KB · Aufrufe: 276
hadu beim wechsel der graka den treiber sauber deinstal.. und dann neu draufgemacht,wenn nicht mach das ma. ist zwar beides nvidia aber ist immer besser es neu zu machen
die 3dmurks werte sind ein beden zu wenig komme mit meiner gt im 03 schon auf 13300
ach ja und BF 2 spiele ich mit 1600x1200 alles auf hoch
 
Zuletzt bearbeitet:
Ja, ich ahbe mir extra Driver Cleaner oder sowas gesaugt.... und dann neu den Treiber druaf gemacht......
Also ich glaube mit den Treibern hat es nichts, oder wenn nicht viel zu tun....
haste deine GT denn übertaktet?

Hat denn keienr Ahnung von Netzteilen, und Spannung und so, und kann mir dazu was sagen, ob die Werte OK sind, und ob ich da beim Anschließen was falsch gemacht haben kann, das aus den Steckern verschiedene Spannungen drauf sind oder was weiß ich was....

MFG: Captain
 
Um 2.0++ sinnvoll nutzen zu können bedarf es 2 7800GTX SLI. Und selbst damit geht nicht mehr als 1280x960 2AA+8AF.
 
nee ist nicht übertaktet nur der proz und wegen nt
Bei einem nt ist es nicht so relevant wie hoch die Wattzahlen sind sondern wichtiger ist es wie hoch die Stromstärke ist , also die ampere
Da die Angaben der Hersteller über die Gesamtleistung des Netzteils teilweise recht phantasievoll sind, kann man an den einzelnen Ampere Werten der verschiedenen Spannung gut sehen, was sie wirklich leisten können.
Ein weiterer guter Ansatz zu dem Thema ist die „Combined Power“ Angabe.
Die 3,3-Volt-Leitung muss mindestens 23 bis 25 Ampere Stromstärke liefern können. Die +12-Volt-leitung sollte so 20 Ampere liefern können und bei der 5,5-Volt-Leitung sollten es 28 bis 30 Ampere sein. Wenn diese Eckdaten passen, ist es egal, ob das Netzteil als 300-, 350- oder 400-Watt Netzteil ausgeschrieben ist.
wenn man sich also ein Marken nt Kauft z.B. BE QUIET oder Tagan dann sollte auch ein 350-400 Watt nt reichen, aber immer auf die Stromstärke achten!
da die Hardware ja immer leistungshunriger wird
das sollte dein enermax eigentlich bringen,mit den werten löft jede gt und ultra
und beim anschliesen kann mann eigentlich nichts falsch machen auser den stecker vergessen
 
Zuletzt bearbeitet:
wie ist das denn mit den einzelnen Strängen die aus dem Netzteil raus gehen, gibt es da welche die 5.5 V haben und welche mit 3.3 V oder was???
denke auch das Netzteil das schafft, aber wenn ich es nicht richtig verwende, kann das Netzteil nichts dafür :D deshalb ahbe ich gefragt...

Und die Core Spannung von 1.30 - 1.35 für meinen P4 3.2 Prescott ist normal oder was... (siehe Screenshot von Everet Home oben...)

MFG: Captain
Und danke schonmal.
 
Hi m!Captain!

Was für ein Zufall :D, hätte ich deinen Thread jetzt nicht gesehen, hätte ich genau den gleichen Aufgemacht :D.

Ich hab nämlich so ziemlich das gleiche Problem, ich hab eine Aopen 6800 Ultra, mein Restliches sys steht in meiner sig. Ich benutze ebenfalls den selben nvidia Treiber wie du und unsere Hardware ist auch sehr Ähnlich. Und wer hätte es Vermutet, ich hab eigentlich genau die gleichen Punktezahlen bei den Benchmarks wie
du! :D Nur 3DMark05 hab ich nicht auf der Pladde da kann ich's nicht Sagen. Jedenfalls bin ich auch etwas von der Leistung enttäuscht, da hätt ich mir doch schon mehr Erwartet :( :rolleyes:
 
Zuletzt bearbeitet:
Die 3.3Volt gibts ja nur am ATX Stecker fürs Motherboard.
Die anderen 5Volt und 12Volt Stecker sind ja immer kombiniert an jedem Molex Stecker zu finden.
Deine Spannungswerte sind völlig Ok, und die der CPU weiß ich nicht, aber das hätt ja eh nix mit der Geschwindigkeit zu tun sondern eher mit der Stabilität.

Gabs nicht für Riddick einen Update-Patch der Pixel-Shader 3.0 ermöglicht?
 
m!Captain schrieb:
In Riddick gibts keine funktion für Pixel Shader 3.0....

Wie ist das mit den Spannungen??? vor allem CPU, gehört die nicht auf 1.5 oder so... habe kein plan davon :D :D :D
die anderen müssten OK
Und wie war das mit ob ich beim anschließen was falsch gemacht ahben kann?

Hier die Pics, wusste nicht wie ich das sonst machen sollte, ahbe immer weiter runter gescrolt in den einstellungen :D


mach mal mipmaps erzwingen triliner und bei systemleistung hohe quali ;)
 
m!Captain schrieb:
Und die Core Spannung von 1.30 - 1.35 für meinen P4 3.2 Prescott ist normal oder was...

MFG: Captain
Und danke schonmal.

ja die vcore is ok. ;) hab ja auch die gleiche cpu. :D

@[-eraz-] hättest du dir lieber ne x800xt pe gekauft. :lol: *spaß mach*
 
-RGC-excoutor schrieb:
@[-eraz-] hättest du dir lieber ne x800xt pe gekauft. :lol: *spaß mach*
Wenn ich dich in die Finger bekomme! :mad: :D

Nein also, die X800XT PE ist dafür wieder schweineteuer, hab mir ja die Karte von Alternate für 299,-- Eur gekauft, vom Preis Leistungsverhältnis her eigentlich ok. Trotzdem haben andere User mit der gleichen Karte eine viel höhere Leistung *ichauchhabenwill*.

Wenn ich bei Doom³ alles voll hochdrehe + 16Faches Antialaising, läufts nicht ganz Flüssig (wobei ich glaub das 16 Fach von haus aus ein bisschen zuviel wäre :D) mit 8x läuft Super (bei 1280x1024), das wär so eigentlich schon in Ordnung oder?
 
Naja, wie auch immer....
das Problem scheinen ja schon ein paar zu haben.
Und es muss doch eine andere Lösung geben als mehrere Treiber auszu probieren, und vor allem mit Beta Treibern zu Fahren, die Treiber der letzten Generation sind ja Hauptsächlich für die GeForce6 Series und sollten demnach auch gut Laufen.

Ich denke das es doch möglich sein sollte die gleiche Leistung die andere mit einem gleichwertigen System erreichen auch zu erreichen, die frage ist nur wie :D :D :D


MFG: Captain
 
Zuletzt bearbeitet:
@m!Captain
Hast du mal einen PCMark04 gemacht? Bei dem hab ich 4861 Punkte. Das scheint mir auch ein bisschen zu wenig.
 
Ich habe sogar noch weniger, habe 4795 Punkte erlangt.
Was isr denn hier los, schreibt keiner mehr??? :heul:

MFG: Captain :hammer_alt:
 
Zurück
Oben