performance der 8800gtx

viel mehr angst machen mir aussagen wie:
Aresta schrieb:
Gothic3 ruckelt selbst auf mittleren Grafikeinstellungen (jedoch shader3.0 eingestellt) auch gelegendlich auf meinem Rechner. Mit maximaler Einstellung ist es dann fast unspielbar; speziell wenn man die Fackel in die Hand nimmt, passiert erstmal 2Sek gar nichts mehr. Die Grafikengine von G3 scheint einfach schlecht programmiert zu sein.

also da ich nun doch den e6600 getsern noch bestellt habe wird man doch woahl erwarten können G3 in annehmbaren einstellung spielen zu können, oder etwa nicht?
 
Also eine lahme Krücke ist ein P4 mit 3Ghz ja nun auch gerade nicht. Sicherlich schon etwas angestaubt, aber einen so extremen Leistungszuwachs würde ich mir nicht versprechen, zumal die restlichen Komponenten bei Dir wirklich up to date sind. G3 ist wohl einfach ein schlechtes Beispiel für die Performance-Beurteilung neuer Hardware, weil es schlicht und ergreifend mies programiert ist. Andere Games laufen bei mir sehr flüssig auch teilweise auf maximalen Details mit 1680x1050, wie z.B. WoW und Guild Wars.
 
naja sind wir doch mal ehrlich: bei der menge an geld die wir in unsere rechner gesteckt haben will man das auch erwarten.

hast allerdings recht das G3 keine optimales game zu leistungsbeurteilung ist. aber sonst gibt es ja aktuell kaum richtig grafik-wunder.....
 
HiHO

So jetzt ich^^ Also ich hab zwar nich so eine Monsterkarte 8800 GTX (dazu kommt das ich von XFX nicht überzuegt bin aber persöhnliche Einstellung)

Hier mal Anmerkungen zum Prozessor: Du kannst dir einen 12GHz Prozzi einbauen und hättest gar nix davon weil dein FSb das überhaupt nicht schafft also hohe Taktraten sagen nicht unbedingt das alles super laufen muss das Gesamtbild muss stimmen Ein Auto fährt auch nicht schneller nur weil man super extra verbleit oder so ein Sch**** tankt zumindest nicht merklich.

Mein Sys AMD64 x2 3800+ @2Ghz 1024mb ram@800mhz 2*MaxtoR 300Gig "raid 0"
2*asus en7600gt mit jeweils 256mb im SLI.

So zu den Spielen immer mit 8xAA + 16X AF 1280x1024

FarCry 14 fps wenn man alles sieht also draussen in einem riesigen Portal quasi Bergab Wasser Vögel Boote Gegner.
FarCry 50 fps in geschlossenen Räumen also in einem kleinen Portal
Unreal 2004 mit SLI-AA und 16AF 1280x1024 + 20 Bots alles auf ultra hoch(also anschlag) 120fps (durchschnitt) @ Deck17
CoD1 da fps begrenzung 125 fps durchweg
CoD2(drecksGame) 24 fps durschnitt kann aber auch derbe nach unten gehen schaltet man die Auflösung 1024x768 kein Problem spielt sich super mit high end Grafik
Need for Speed Most Wanted 60 fps
Civilization IV @ 21" CRT Monitor 1600x1200 nicht das geringste Ruckeln auf Tft geht leider nur 1280x1024 da erst recht kein ruckeln
++++++++++++++++
Bf2 alles anschlag 1280x1024 60-80 fps durchgehend wenn Laden komplett abgeschlossen ist also einmal mit dem Jet über die Map geflogen gleiche bei Bf2142

So und jetzt noch 3dMark05 alles an ca. 8200 Punkte
 
Zuletzt bearbeitet: (Wegen der Rechtslage)
Mmmmh, was Du jetzt mit diesem Posting ausdrücken möchtest weiss ich leider auch nicht so genau. Ich spekuliere mal, dass Du uns mitteilen möchtest, dass man nicht die neueste und teuerste Hardware benötigt, um aktuelle Spiele flüssig spielen zu können? Falls dem so ist, kann ich dazu nur sagen, dass hier darum auch gar nicht so richtig geht. Hier wurde speziell Gothic3 angesprochen und das ruckelt auf maximalen Einstellungen wohl auch auf der schnellsten zur Zeit käuflichen Hardware. Da alles andere bei mir absolut perfekt funktioniert, kann es imho auch nicht daran liegen, dass ich irgendetwas falsch konfiguriert habe.

Die einzigen Punkte, die man zu G3 noch sagen kann, sind eben, dass das Game selbst suboptimal programmiert ist und das es noch sehr wahrscheinlich ist, dass die Treiber für den G80 noch nicht auf alle Spiele optimiert sind.

Ich gehöre "leider" auch zu denen, die sich in größeren Abständen immer das maximale an Hardware kaufen, in der Hoffnung, dann wieder eine Zeit lang Ruhe zu haben. Das ist auf Grund der rasanten Entwicklung in dieser Branche sicherlich eher unvernünftig, aber ich kann einfach nicht anders :-).

Edit: PS. Soweit mir bekannt, ist XFX einer der ältesten und renomiertesten Hersteller und Partner von/für NVidia. Nur waren die bisher fast nur in ihrem lokalen Markt(USA) tätig und sind erst seit wenigen Jahren auch in Europa aktiv.
 
Zuletzt bearbeitet:
]STS[*SpongeBoB schrieb:
Mein Sys AMD64 x2 3800+ @2Ghz 1024mb ram@800mhz 2*MaxtoR 300Gig "raid 0"
2*asus en7600gt mit jeweils 256mb im SLI.

So zu den Spielen immer mit 8xAA + 16X AF 1280x1024

FarCry 14 fps wenn man alles sieht also draussen in einem riesigen Portal quasi Bergab Wasser Vögel Boote Gegner.

14FPS sind da gar wenig. Bist du sicher, dass SLI dabei auch läuft?

mFg tAk
 
@ SpongeBob & tAK:

Ja, Deine FarCry-Werte sind ziemlich schlapp! Würde auch vermuten, daß SLI hier nicht aktiv ist. Ich messe mal mit Fraps was es bei mir sagt, nur kann ich Dir jetzt schon sagen, daß ich ABSOLUT FLÜSSIG zocke, egal wo ich hinrenne und wieviele Typen am ballern sind oder mit Trucks rumeiern :D Allerdings zocke ich auf 1368x768... (FC Version 1.4, Forceware 91.31)

Greetz, G.
 
Zuletzt bearbeitet:
ok jetzt ist der e6600 drin und ich kann nur sagen das das ding die absolute bombe ist.

aquamark3: 134.537punkte also doppelte leistung wie vorher

und G3: zocke jezt auf 1280x1024 mit max details, shader3 und und und.... allerdings mit schatten=mittel und überstrahl-effekt(also auch mittel)

ergebnis: super flüssig nur hin und wieder mal kleine aussetzter was wohl, wie einige vor mir schon angemerkt haben, an der programmierung liegt.


fazit: man kann einer graka auch blei an die beine hängen und sich wundern warum sie nur solitär schaft :D


weis eigentlich schon jemand ob nvidia in ihrem nächsten treiberpaket eine ordentliche optimierung für die G80 plant?
 
Herzlichen Glückwunsch zum E6600 :daumen:! Sicher ein Unterschied wie Tag und Nacht.

zum Thema Treiberpaket: die 8800er-Serie benötigt ja bereits "eigene" Treiber, die nur für diese Karten bestimmt sind. Demnach sind die Treiber auch für die 8800er-Serie optimiert. ;)

Mfg
 
Stulp schrieb:
weis eigentlich schon jemand ob nvidia in ihrem nächsten treiberpaket eine ordentliche optimierung für die G80 plant?

nVidia hat das Erscheinen des neuen FW X Treibers angekündigt. Inwiefern sich darin Optimierungen finden, weiss man erst wenn der Treiber erhältlich ist.

Gespannter darf man auf die DX10 Leistung sein. Vorallem im Hinblick auf den R600.

mFg tAk
 
Ich weis nicht was Ihr fürn Problem habt aber ihr solltet auch mal Eure Systeminstallation Prüfen...

Ich habe mein System So verbaut und Optimiert und bin auf sehr geile Ergebnisse gekommen.
3DMark 03 34370

3DMark 05 17481

3DMark 06 11958

Aquamark 166709


Ich habe noch kein Spiel gesehen was bei mir nicht flüssig läuft... Fear Combat... mein aktuelles Lieblingsspiel hat zwischen 200-300 FPS bei Full Auflösung + Grafikextras.
Gothic 3 + Oblivion... Ich verstehe nicht wie es bei jemanden mit solchen Systemen zu Hackern kommen kann... Bei mir auf jeden fall nicht..

Das einzige
was wirklich hackt
ist "FLIGHT SIMULATOR X"
es gibt kein anderes Spiel
was mehr hackt auf
diesem Gebiet!!!

Danke Mfg Marcus Barthel :)
 
Zuletzt bearbeitet: (Bilder hinzugefügt!!!)
ein entscheidender grund für deine hoheren werte ist wohl der übertaktete prozzi! und was verstehst du eigentlich unter optimiert?

klär uns doch mal auf was man noch so machen kann! hast du evtl noch deinen ram übertaktet o.ä.


hast du auch mal gothic3 gezockt? da ja nun mittlerweile alle behaupten das egal auf welchem system das ding ruckt immer-->schlecht programmiert
 
Ich habe ja in etwa das gleiche System wie fartlite, nur dass meine GPU nicht übertaktet ist. Habe deswegen auch minimal schlechtere 3DMark Werte. Aber:

Dass z.B. Oblivion absolut und niemals unter 25 fps läuft, trifft auch jetzt noch nicht zu. Es gibt immer noch Stellen im Spiel, wo ich locker mal auf unter 25fps falle, insbesondere bei Kämpfen mit den schönen Grafikeffekten. Fahre im übrigen 16xAA, da geringere AA-Level hier nicht in wesentlich mehr fps umgesetzt werden - schon krass, was die GTX schafft.

Zugegeben, die Grafik ist bei mir nochmals aufgepimpt, das kann man nicht mehr mit den maximal möglichen Settings, die das Spielmenü bietet, vergleichen (Welt spiegelt sich komplett im Wasser, alle wichtigen Texturen durch bessere ersetzt, Schattenqualität auf "hoch", die extrem auf die Performance drückenden Einträge in der Oblivion.ini "gridstoload=7" [bestimmt Anzahl der geladenen Spielwelt-Grids]und "iMinGrassSize=80" [Grassdichte, je geringer der Wert, desto mehr Gras wird angezeigt] sind aktiv usw.). Es ist nun einmal so, dass sich die Oblivion-Welt in Grids aufteilt, und wenn ein neues Grid geladen wird, dann stockt es für einen Moment, bis sich alles geladen hat. Da kann eine GTX nichts für, und die CPU auch nicht. Da hat die Performance der HDD schon ein deutliches Wort mitzureden...

Ob Gothic 3 auch noch wie dessen Demo leicht rumstockt, weiß ich nicht. Der Wechsel von einem 3700+ auf einen C2D E6600 hat jetzt nicht soviel gebracht, und die Demo läuft jedenfalls nicht mehr, seit ich die GTX drin habe (vorher X1800XT). Das Spiel kaufe ich mir erst, wenn es als Mid-Budget verfügbar ist und weitere Patches durch sind, kann da also jetzt nichts zu sagen, wie das reale Gothic 3 sich so verhält mit meinem System.
 
Zuletzt bearbeitet:
@Fartlite

also mein Sys. ist ja ähnlich dem Deinem. Ich habe alles auf Standart laufen und komme auf etwa 10000 Pkt. im 3DMark06, das ist ein ganz normaler Wert für so ein System. Gothic 3 spackt auch mit dem neuen Patch 1.12 noch rum, teils liegt das an schlechter Programmierung, dann darf man nicht vergessen das die Spielwelt riesig ist und Nachladerukler wohl auch nie zu vermeiden sind. Oblivion läuft seid ich von der 1900XTX upgegraded habe in 1280X1024 und alles auf volle Kanone mit HDR aber ohne AA cremig. Ruckler sind seid der 8800GTX selten aber dennoch vorhanden.
 
Mit AA läuft es nicht bei Dir "cremig"? Würde nicht auf AA in den Spiel verzichten wollen, zumal die 8800GTX das auch schafft.
 
@Wolfenstein 2k2

werde das mal mit AA und HDR gleich mal testen, ich denke mal AA zusätzlich dürfte der Karte nicht so viel abverlangen. Bin eigentlich noch nicht auf die Idee gekommen weil die Bildqualität schon supergut ist. Danke für den Tip.

Nachtrag: Hattest Recht, sieht besser aus. Performancemäßig überhaupt kein Problem. :)
 
Zuletzt bearbeitet:
Siehst Du ;)

8x AA oder gar 16x AA ist kein Problem, wobei der Unterschied zwischen diesen beiden Modi eher gering ist. Ich denke, 8x AA ist ein guter Kompromiss + 16x Winkel unabhängiges AF für scharfe Texturen. Nur Transparenz AA (Supersampling) sollte man tunlichst aus lassen, denn dann kackt auch eine GTX ab, wenn jedes Blättchen noch gefiltert werden muss.
 
Meine Werte bei 2.66 GHz, Sorry is Editiert... Waren nicht die Werte ohne Grafiktaktung:
3DMark 03: 33954
3DMark 05: 16245
3DMark 06: 11307


Mein Ram war nicht wirklich getaktet... Lief auf 833 durch den hohen FSB.

Dazu noch eins... Gothic 3 + Oblivion sind Rollenspiele... Da braucht man keine Werte wie bei einem Shooter.. Egal wenn ihr ein Savegame habt, in dem ihr an einer Stelle seid die hacken soll, sei Es G3 oder Ob. schickt es mir... Ich würde es gerne mal Testen mit Full Resolution und Allen Grafikextras... Das was ich bisher gesehen habe hat kein Stück gehackt... Bei Oblivion bis zum ersten mal am Land war.... Riesenfläche trotzdem ruckelfrei... Ich lass mal Fraps laufen... Wenn ihr mir die SaveGames gibt
 
Zuletzt bearbeitet:
LEUTE... Ich habe ein Problem... Ich habe euch zuliebe mal die GK und den CPU auf Originaltakt gemacht... Nun hab ich bei 3dMark03 20000 Punkte... Das kann doch nicht sein :O... Was läuft hier verkehrt Helft mir BITTE??!!
 
meine werte mit

e6600
xfx 88er gtx
evga 680i


3dmark03:38.678!!
3dmark05: 20.300!!
3dmark06: 12.560!!!

kleiner tipp lass mal dein ram lieber bei 800 und mach mal die fw 97.02 drauf
 
Zuletzt bearbeitet:
Zurück
Oben