Test Test: Nvidia GeForce 9600 GSO

Danke für den Test!

In sachen Preis Leistung führt nichts an der 9600GT und 8800 GT vorbei, auch wenn die Karte zu wenig Vram hat, der 9600GSO werden auch keine 768MB mehr helfen. Die Karte ist einfach schlecht und überflüssig.

In WiC bewirkt PCIe 2.0 wahre wunder.
Low end Karte killt High end wegen PCIe 2.0, Hammer! Wie lange es wohl noch dauern wird, bis die gerade frisch gekauften P35 Boards, PCIe 1.1 Käufer aufregen -> hätte ich doch ein paar € mehr für einen X38 ausgegeben. In Zukunft wird die Schnittstelle noch mehr ins Gewicht fallen, im Moment ist es noch eine Ausnahme.
Hier im Forum wird fast immer ein P35 empfohlen weil er ein bisschen günstiger ist --> ganz großer Fehler...
Glück hat wer einen aktuellen Chipsatz von AMD hat, die haben quasi alle PCIe 2.0.
Die GT200 wird von PCIe 2.0 bestimmt auch stark profitieren.
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Das kann ich nicht korrigieren, da da so richtig ist. Überraschend, aber war, wie ich während des Testens herausgefunden habe: In WiC bewirkt PCIe 2.0 wahre wunder. Sonst bringts quasi gar nichts.

Hmm, ok, wenn die Messwerte korrekt sind, dann kann man natürlich nicht einfach so umändern. Aber das das am PCIe 2.0 liegt glaub ich nicht. PCIe bindet doch die Grafikkarte nur an die Northbridge an und von da aus geht es über FSB zur CPU. Also müsste dann doch wieder der FSB limitieren. (oder sehe ich das Falsch?) Wie dem auch sei... Habt ihr vielleicht irgendwo ein Board rumliegen, dass nur die erste Version des PCIe unterstütz? Dann könnte man testen, ob es wirklich am PCIe 2.0 liegt. Ich befürchte schon eher, das hier nVidida "vergessen" hat für den G80 die Optimierungen im Treiber, die für G92/G94 durchgeführt wurden, mitzuübernehmen. (Das könnte man dann eventuell auch nachweisen, wenn man dem Treiber vorgaukelt, er hätte eine GeForce 9800 GTX statt einer 8800 GTX vor sich)
 
Zuletzt bearbeitet:
@Wolfgang
ist das evtl. ein Messfehler oder warum schneidet bei deinen Benchmarks in Assassins Creed die HD38xx Serie so gut ab? Ganz im Gegensatz zu dem etwas älteren Test zum VRAM Verbrauch!
Wurde mit DX10.1 oder doch noch mit DX9 getestet?
In der Spielbeschreibung steht DX9 aber unter den Testbedingungen DX10.
 
Zuletzt bearbeitet:
Warum sollte der FSB limitieren?

QX9770 mit 400Mhz FSB -> theoretisch 12800MB/s
PCIe 1.1: theoretisch 4000MB/s
PCIe 2.0: theoretisch 8000MB/s

Aber klar erst mal nv beschuldigen den G80 auszubremsen. :rolleyes:
 
tss Unyu, deine Meinung ist doch immer noch die beste......wa!?:freak:
 
Weil die Intel-CPU kein integrierten Speichercontroller hat und über den FSB auch mit dem Speicher kommunizieren muss.

Es ist DDR3-1600 installiert, was im Dualchannel eine Bandbreite von 25,6 GB/s liefern kann, was bereits über der theoretischen FSB-Bandbreite, die du da gerade schön ausgerechnet hast, liegt. Bereits mit DDR2-800 im Dualchannelbetrieb hätte man die theoretische Bandbreite des FSB ausgelastet^^
 
Zuletzt bearbeitet:
Wie genau kommst du jetzt auf eine FSB Limitierung?

Die CPU limitert mit ihren lustigen 4 Yorkfield Ghz nicht, und die CPU hängt auch nicht so böse am FSB.
-> Der FSB wird nur zum Bruchteil ausgelastet. Es ist mehr als genug Bandbreite für PCIe übrig.
 
lol Unyu, zuerst machst du eine bescheuerte Rechnung und wenn ich dir eine komplette Rechnung mache, fragst du mich, wie ich auf die FSB-Limitierung komme. Laß dir was besseres einfallen. Es ist lächerlich, was du machst.

Im Übrigen gibt es Boards die kein PCIe 2.0 unterstützen und dort kann man das dann auch nachmessen, so wie ich vorgeschlagen habe. Also brauch ich mit dir nicht weiter drüber zu diskutieren. Ich will Messwerte sehen.

PS: Es ist egal ob die CPU mit 3,2 oder 4 Ghz taktet. FSB bleibt ja weiterhin auf 400 Mhz, von daher gibt es gar keinen Grund, das zu betonen. Ganz im Gegenteil. Je schneller die CPU, desto stärker wird der FSB-limmit, weswegen Intel den FSB ja auch kontinuierlich anhebt...
 
Zuletzt bearbeitet:
Du tust ja so als ob der Yorkfield an der Bandbreite des DDR3 ersticken müsste. :lol:
Es gibt genug Beweise, das ein C2Q nicht so am FSB hängt, wie du es dir wünscht und die darfst du dir selbst suchen.

Aber schon klar worafu du hinaus willst:
Mit einem Phenom ohne böse limitierenden FSB müsste die Karte in WiC gleich 10 mal schneller rennen. :lol:


Wie du so schön schreibst: selbst mit unter 2Ghz würde die CPU in den avg FPS nicht limitieren und bei 2Ghz kannst du den Unterschied zwischen 200 und 400Mhz FSB echt vergessen.
Vom idlen wird der FSB/ die CPU ja nicht stärker beansprucht.
 
Zuletzt bearbeitet:
Unyu schrieb:
Aber schon klar worafu du hinaus willst:
Mit einem Phenom ohne böse limitierenden FSB müsste die Karte in WiC gleich 10 mal schneller rennen. :lol:

Sag mal, gibt es einen Grund, warum du mir ständig irgend eine böse Absicht versuchst zu unterstellen. Ich habe geschrieben, dass ich nicht an so einen PCIe-Limmit glaube, dass eine High-End-Karte unter eine Midrange-Karte fällt, weil da bereits ein FSB dahinter ist, der die Andbindung zum Speicher als auch zum PCIe versorgen muss. Wenn es also nicht am PCIe liegt, dann wird das auch mit dem Phenom nichts^^ Wie wäre es den mit Lesen, statt Flamen? Zu guter Letzt habe ich eine Messung angefragt und die Anfrage begründet. Nicht mehr und nicht weniger.

Zu deinem Edit. Ich habe niergendwo geschrieben, dass die CPU mit 2 Ghz nicht limmiterien würde oder auch nur irgend etwas in die Richtung. Hör doch auf mir etwas in den Mund zu legen was ich nicht gesagt habe. Lerne lesen und das Gelesene auch verstehen, dann können wir weiter reden.
 
Zuletzt bearbeitet:
Deine erste Anschuldigung des Ausbremsens der G80 war nunmal schlechtweg falsch.

Nochmal von vorn:
Die Treiber sind nicht identisch. :rolleyes:

Es hat den Anschein, das PCIe 2.0 nützlich ist und die FPS deutlich nach oben treibt. PCIe 2.0 ist gerade mal doppelt so schnell wie PCIe 1.1 und dennoch skaliert es wunderbar. Du hoffst also irgendwo in der Ecke mit etwas mehr FSB noch ein paar FPS aufgabeln zu können?
 
Zuletzt bearbeitet:
@Unyu
LERNE LESEN!

Das einzige was schlichtweg falsch ist, ist dein notorisches rumflamen und mir etwas in den Mund legen, was ich nicht geschrieben habe. Von deinen falschen Rechnungen will ich erst gar nicht anfangen zu reden...

Das Testsystem wurde im März zum Test der 9800 GX2 umgestellt. Für die GeForce 8800 GTX und GeForce 9600 GT wird der Treiber Nvidia ForceWare 174.16 verwendet:
https://www.computerbase.de/2008-03/test-nvidia-geforce-9800-gx2/5/#abschnitt_testsystem
 
Zuletzt bearbeitet:
=Wurzelsepp= schrieb:
Wie kann es sein dass die Stromverbrauch angaben so weit auseinander liegen????

https://www.computerbase.de/2008-02/geforce-9600-gt-schneller-als-geforce-8800-gs/

Das würde mich im übrigen auch mal interessieren.

Finde es merkwürdig,das eine umgelabelte Karte plötzlich so viel mehr Strom verbraucht.

"Entweder lässt Point of View den 3D-Beschleuniger mit höheren Spannungen laufen, oder wir haben einfach ein schlechtes Exemplar erwischt."

Wie wärs mal mit Bios auslesen? ;)

Ansonsten kann es wohl schlecht sein,das eine Karte mit weniger Shadern,weniger SI,und weniger Takt mehr als ne 8800GT verbraucht o_O
 
Seh ich genau so da kann was nicht stimmen!

Höhre wäre Spannung ist bei den Taktraten ja sinnlos.
 
Fassen wir also zusammen:
Ist bei normalen Einstellungen (kein AA/AF) langsamer als ne 3850 256MB, aber schneller bei Einstellung die man mit der Karte praktisch eh nicht nutzen wird/kann.
Ist laut, die 3850 ist auch mit Serienkühler angenehm leise.
Selbst wenn man sich bei der 3850 für die 512MB entscheidet hat man die 5 Euro Preisunterschied schnell wieder drin weil die weniger Strom braucht.
-> Karte = Griff ins Klo, 3850 oder 9600GT sind die bessere Wahl

Ich hab das Gefühl, dass hier schöngeredet wird.
 
Blutschlumpf schrieb:
Selbst wenn man sich bei der 3850 für die 512MB entscheidet hat man die 5 Euro
Ich hab das Gefühl, dass hier schöngeredet wird.


Die wird nicht schöngeredet, nach dem CB-Test ist sie wirklich nicht beste Wahl, aber bei allen anderen Tests schneidet sie deutlich besser ab(besser als eine hd 3850 256, ~hd3850 512), auch vom Stromverbrauch. Außerdem gibt es sie für ca. 75€, was sehr günstig ist.

Klar hat man die 5€ schnell wieder drin, ein Jahr ist ja keine lange Zeit.
 
Hallo zusammen.

Ich kann mich den positiven Aussagen über die EVGA 8800GS nur anschließen da ich seit 1.5.
selbst Besitzer einer solchen bin. Als Silencer wars wichtig für mich eine leise Karte der 88er
Generation zu kaufen da die Pixelschleudern doch so einiges an Wärme produzieren. Meine
Recherchen für ne neuen Karte unter 100€ beliefen sich auf fast 3 Wochen bis ich bei der
EVGA blieb. ATi kam von Anfang an wegen schlechtem Linux-Support nicht in Frage. Dazu
kommen noch die guten OC Werte die in manchen Anwendungen mit einer 88GT mit halten können.
Die 88GS würde ich auch einer 88GT mit 256MB vorziehen weil ich die GS hochtakten kann,
aber keinen RAM mehr auf die GT löten kann...

Persönlich finde ich, die POV 9600GSO ist ein, gelinde gesagt, Griff ins Klo, da die Umsetzung
einer so tollen Karte nicht geglückt ist. Keine Lüftersteuerung, imho schlechtes Kühlkonzept
und höherer Stromverbrauch der wahrscheinlich auf das POV-eigene Kartendesign zurück zu
führen ist ...

Im übrigen limitiert mein X2 mit 2,7GHz schon ziemlich übelst... Laut Recherche wird die Karte
erst ab 2,9/3GHz AMD CPU richtig bedient...

Für mich ist die 8800GS von EVGA einfach nur der Pr/Le Sieger in allen belangen.
 
Blutschlumpf schrieb:
Fassen wir also zusammen:
Ist bei normalen Einstellungen (kein AA/AF) langsamer als ne 3850 256MB, aber schneller bei Einstellung die man mit der Karte praktisch eh nicht nutzen wird/kann.
Ist laut, die 3850 ist auch mit Serienkühler angenehm leise.
Selbst wenn man sich bei der 3850 für die 512MB entscheidet hat man die 5 Euro Preisunterschied schnell wieder drin weil die weniger Strom braucht.
-> Karte = Griff ins Klo, 3850 oder 9600GT sind die bessere Wahl

Ich hab das Gefühl, dass hier schöngeredet wird.

Ich hab eher das Gefühl,das Du Dir die HD schön redest ;)

Wenn Du Dich auf die hier getestete Karte beziehst,sollte man sich den Kauf überlegen,da gebe ich Dir recht.

Ich hab ne Asus,die Karte bleib unter 60° selbst OC (Die ATI so schon über 80°),ist angenehm leise und mein ganzes System braucht Idle 150W.

Und ausserdem gibt es ne Menge Spiele,die ich bestimmt nicht ohne AA/AF spielen möchte.

Mag sein,das es für DX10 nicht ganz reicht,aber was genau erwartet man von einer Karte,die es ab 75€ gibt?

Ich finde,dafür ist das Gebotene schon enorm ;)

Im übrigen sehe ich im Test nicht viel von dem "Speicher Bug",aber von ATIs "AA/AF Bug" ^^
 
Zuletzt bearbeitet:
Mightydax schrieb:
Ich hab ne Asus,die Karte bleib unter 60° selbst OC (Die ATI so schon über 80°),ist angenehm leise und mein ganzes System braucht Idle 150W.
Sorry, aber das ist in etwa so wie mit nem Auto anzugeben was 10 Liter bei 90 auf der Autobahn braucht, klingt nicht sehr überzeugend sofern du da keine sinniger Erklärung hast (8 Platten wäre eine, hungriger Quad, NVidia-Chipsatz oder SLI nicht ;)).
Meins braucht übrigens idle irgendwas zwischen 80 und 90 Watt, imo ist das schon viel zu hoch, das Ziel muss sein deutlich unter 50 Watt zu kommen.

btw, die 3850 hab ich mir schon vor knapp nem halben Jahr gekauft als NVidia noch Probleme hatte ohne Last in der Leistungsregion auch unter 100 Watt zu kommen, die hat sich schon bewährt, da brauch ich nichts mehr schönreden. :evillol:

Und ausserdem gibt es ne Menge Spiele,die ich bestimmt nicht ohne AA/AF spielen möchte.
Ob du willst oder nicht, bei aktuellen Spielen sind max Details mit 1600x1200 und 8xAA/AF nicht drin, ob da kann ich am ehesten auf AA/AF verzichten.
Wenn ich was von 2006 zocke reicht inzwischen fast jede Karte.
 
Zurück
Oben