Passende HighEnd Karte für mein System...

Was mich etwas wundert sind die Werte im 06er 3D-Penismark... ich habe eine ähnliche Konfiguration und komme über 11k wenn ich mich nicht irre. Hab den Test nun lange nicht mehr gemacht, nur zum Anfang und evtl. mit neuen Treibern, ob sich etwas "verschlimmbessert" oder nicht.

Ansonsten stimme ich in den Tenor mit ein, warte auch die neuen Karten. So wie viele andere auch. Entweder du schlägst dann zu und kaufst dir noch eine "ältere G92er" oder eine von der neuen Riege.

Aber jetzt die GTS zu tauschen halte ich für NICHT Sinnvoll. Ich spiele AoC selbst bei 1680x1050 mit mittleren Details und etwas Feintuning und es läuft sehr flüssig. Hab die FPS-Anzeige an.

Mach was du willst, meiner pers. Meinung nach - warten!

Gruss
 
Zuletzt bearbeitet:
@Charmin

Echt?

Ich dachte immer 3D Mark ist der Beste Richtwert was Grafikleistung Anbelangt...
 
er hat aber keine Game Egine und ist somit bezgl. Games nicht aussagekräftig.
 
So ist das - wieder was gelernt...

Also am Besten Game reinschmeißen, FPS anzeigen lassen (bei Conan geht das zum Glück), und dann vergleichen mit welcher karte ich mehr FPS zusammenbringe..

thx charmin
 
Wenn Geld keine Rolle spielt nimm die 9800GTX, oder warte 1-2 Wochen auf die neuen.
Komisch, hier hat noch keiner auf die tollen CB-Grafikkartentests hingewiesen?
 
Also eigentlich habe ich ja 1280x1024 :freaky:

Ich hatte Heute die möglichkeit die Winfast 9800GTX einzubauen und zu Testen...

Als ersten Test lies ich mal einen 05 er Benchmark Laufen und war doch ziemlich schockiert als ein ergebniss von ca 6000 punkten rauskam...

Als zweites habe ich mal Age of Conan probiert und da war es auch schlimm - ständig um die 10 Frames...

An was kann das liegen?
 
Für AoC hat die Karte zu wenig Speicher und wenn man kein x64-OS hat, ruckelt das Spiel auf maximalen Details wie blöde.

cYa
 
Also mit der GTS(640) habe ich bei AOC mit Deaktiviertem Bloom und Schatten - den Rest auf High, eine Framerate von 50 - 100...

Aber das die 9800 beim Benchmark so versagt hat, wundert mich einfach...
 
Mit deaktivierten Schatten verdoppelt sich die Performance :D

cYa
 
@ xxREDxx
Das 3DMark Ergebnis stinkt zum Himmel, da passt was nicht...

Läuft sie wohl eh mit PCIex16?
 
Man muss beim Grafikkartenkauf selbstverständlich auch an die Zukunft denken. Ne Grafikkarte der neuen Generation ist einzig sinnvoll wenn man auch zukünftige Titel in maximum Settings geniessen will und SLI ablehnt. Bis zum Ende des Monats wird seine GTS (G80) wohl noch reichen. :rolleyes:
 
Hoi!

@Thread:

Für dich wäre es am Besten noch 5Tage zu warten und eine ATI4850 zu kaufen.
Diese wird auf 8800Ultra Niveau sein und dies unter 200€.

@9800GTX:
Diese sollte deinen Monitor schon ordentlich antreiben,
Bei dir stimmte wohl irgendwas nicht, die 9800GTX hat einen 3D Mark05 Wert 20000Punkten!
...hat sie evtl. zu wenig Strom bekommen d.h. 2x6pin?
http://www.technic3d.com/article-654,3-nvidia-9800gtx-von-zotac.htm
Selbst AOC hätte sie bei dieser Auflösugn @Max flüssig betreiben müssen!
...eine Arbeitskollege hat auch eine 9800GTX und bei ihm läufts wie oben beschrieben.

Greetz.Mr.Mushroom
 
Also das sie zu wenig Strom bekommt glaube ich nicht - ich habe ein 750Watt Netzteil und beide 6 er pins Angehängt - Treiber Installiert...


Läuft sie wohl eh mit PCIex16?

Wie gesagt - bin halb Noob - aber PCIex ist klar, ich hab ja n neues Motherboard, aber 16?
 
Zuletzt bearbeitet:
denke ganz einfach mal treiber problem. deinstallier mal geforce treiber, lass driver cleaner drüber laufen und installier 175.16

Blöde Frage, aber ist dieser 175,16 Treiber ein "Universal" Treiber der auch bei 8800GTX bzw 8800GTS 640 bzw XP und Vista funktioniert, oder sollte ich besser Spezielle Treiber suchen?
 
Zuletzt bearbeitet:
Der 175.16 WHQL läuft auf allen GF8.

cYa
 
Aus heutiger Sicht ist ein höher getakteter DualCore schneller als ein Quad, da Games von den zusätzlichen 2 Kernen so gut wie nicht profitieren.
Das wird sich aber auch nicht so schnell ändern:
Das Splitten der zu berechenenden Dateien auf mehrere Kerne und anschließendes korrektes Zusammenfügen dieser (Parallelisierung) ist sehr schwer. Die Dualcoreoptimierung hat sich weitestgehend durchgesetzt, doch die Optimierung noch auf Quads auszudehnen, ist um ein vielfaches komplizierter. Diesen Aufwand scheuen die meisten Spieleentwickler, da es auch Probleme mit sich bringt.
Betreibt man allerdings neben dem Gamen noch recht intensiv Foto- bzw. Videobearbeitung, dann hat der Quad wieder seine Daseinsberechtigung.
Eine solche 4-Kern-CPU benötigt aber oft eine bessere Kühlung, verbraucht mehr Strom, ist beim Gamen sehr oft etwas langsamer und lässt sich bei weitem nicht so übertakten, wie ein DualCore.
Fazit: Bei einem reinen Gaming-PC ist ein DualCore sinnvoller.

Quelle: https://www.computerbase.de/forum/t...g-pc-spiele-pc-selbst-zusammenstellen.215394/

so seh ich das
 
Zuletzt bearbeitet: (ergänzung)
Thx y33H@


@Ironie =

Hmm - ok...

Ich hab da folgende Überlegung;

Man kann bei Multicore CPUs ja die Einzelnen Kerne Deaktivieren - wenn ich jetzt bei einem Quad 2 Kerne Deaktiviere (also eigentlich wieder einen Dualcore drauß mache) müßte der sich doch auf grund der Geringeren Temperaturentwicklung gut Übertakten lassen - und wenn ich ein Game mit Quad unterstützung Zocken will stelle ich das ganze wieder zurück...

Wie gesagt ich bin Noob und das ist nur eine Theoretische Überlegung...
 
Zuletzt bearbeitet:
Du kannst per Numproc nicht beinflußen, welcher Core deaktiviert - evt. ists nach nem Boot ein anderer. Sicher klappt das nur mit einigen Nforce-Boards, wo man im BIOS die Core abschalten kann.

cYa
 
Zurück
Oben