Test Test: nVidia GeForce 8600 GTS (SLI) und 8600 GT

Wolfgang

Redakteur
Teammitglied
Dabei seit
Nov. 2002
Beiträge
6.203
#1
Die neue Mid-Range-Generation von nVidia mit Direct3D-10-Unterstützung ist da: Die 8600-Serie in Form der GeForce 8600 GTS und GeForce 8600 GT. Was können die neuen Pixelkünstler? Wir haben Karten von Club3D, Point of View sowie zwei übertaktete 3D-Beschleuniger von XFX zu einem großen Vergleich eingeladen und sind gespannt, wie weit sich die GeForce 8600 GTS und GT von der Konkurrenz entfernen können.

Zum Artikel: Test: nVidia GeForce 8600 GTS (SLI) und 8600 GT
 

valy1

Cadet 4th Year
Dabei seit
Jan. 2006
Beiträge
77
#4
Schonmal nicht schlecht, diese Karten werden schnell im Preis fallen...trotzdem wart ich erstmal auf ATI/AMD, die vllt besseres zu bieten haben....hoffe mal die VÖ der Karten ist bald!
 

Fr34k.2

Lt. Junior Grade
Dabei seit
März 2004
Beiträge
366
#5
Seite 4:
Der verbaute Radiallüfter hat eine Größe von 50 cm und agiert glücklicherweise in allen Lebenslagen sehr leise ...

-> 50 mm

Der 256 MB große Speicher wird von Samsung gefertigt und hat eine Zugriffszeit von 1,0 ns, was einen theoretischen Maximaltakt von xxxx MHz entspricht.

-> 1000

Seite 19:
  • Bereits ...

    Seite 37:
    unter dem Lautstärkegraph:

    Insgesamt platziert sich die XFX-Karte platziert im Mittelfeld.
 
Zuletzt bearbeitet:

loop'ei

Lieutenant
Dabei seit
Okt. 2005
Beiträge
984
#6
klasse und die alte 1950pro is trotzdem besser bei weniger kohlen :lol: schlechter schertz nvidea
 
Dabei seit
Dez. 2006
Beiträge
241
#7
Wenn man sich vorstellt das sonnst meist die Midrange Karten vom P/L verhälltnis
besser waren ist die GTS eine... naja keine so tolle Karte, welche dann leider
auch nichtmehr mit dem sonnst (für Midrange nunmal üblich) perfektem P/L
Verhälltnis Punkten kann.
Meiner meinung müssten beide 86er um 50€ im Preis fallen
um ein gutes P/L verhälltnis zu bekommen.
Da abba AMD/ATI eine sehr agresive Preispolitik bei der neuen Graka Generation
anstrebt wird dies wohl hoffentlich schnell gesschehen.



€:Man darf jedoch nicht vergessen, dass die 86er DX10 unterstützen und (zB in Crysis welches,
beide Dx-Versionen unterstützt)unter Dx9 gleichschnellen Karten davon rennen wird. (vermutlich)^^
 
Zuletzt bearbeitet:
Dabei seit
Sep. 2006
Beiträge
185
#8
naja-in dx9 überzeugt es mich nicht wirklich, aber eh wir die neue graka-middle-class-generation hier schlecht machen, warten wir mal lieber alle auf games, etc. die unfied shader unterstützen.

trotzdem ein guter test!
 
Dabei seit
Jan. 2006
Beiträge
4.290
#11
Joa also ich muss auch sagen - DX10 hin, DX10 her - die X1950Pro glänzt einfach!
Da hat AMD ja nochmal Glück gehabt. :rolleyes:
Nur eines verstehe ich nicht:
Warum der 6pin PCIe-Stecker? Der Stromverbrauch war doch kaum höher als bei der 7600GT.
 

M Polle

Lieutenant
Dabei seit
Juni 2005
Beiträge
875
#12
Ein totaler Reinfall! Aber das Kühlkonzept, Lautstärke und Stromverbrauch
sind lobenswert:daumen:
Aber dass eine X1950Pro meistens spielend mit der neuen 8600GTS fertig wird, hätte ich nicht
erwartet:freak:
Ob die 8600 evtl. unter DX10 mehr Leistung bringt, wird sich zeigen.
Wenn ATi jetzt nicht noch die neuen Midrange Karten verbockt, haben die eine gute Chance,
sich weiter im Midrangesegment zu festigen:schaf:
Bin mal gespannt!
 
Dabei seit
Juni 2005
Beiträge
458
#13
Die kleinen Kärtchen sehen richtig putzig aus...Wenn ich massig Knete überschüssig hätte,würd ich mir ehrlich gesagt eine als Sammlerstück in die Vitrine stellen,aber nur die mit passiven Kühlkörpern (die eventuell noch kommen werden).Die Ergebnisse sehen echt traurig aus.Zum Spielen ungeeignet.Ich denke die meisten Gelegenheitsgamer sollten 50€ drauflegen und eine 8800GTS 320MB holen.Ist mittel- bis langfristig besser angelegtes Geld - imho.
 
Dabei seit
Feb. 2006
Beiträge
547
#14
naja wie man sieht, sind die 8600gts ist "deutlich" besser in 3D Mark, als zB. die 7900gt aber in Spiele-Benchmarks ist sie entweder gleichgut (eher weniger) oder schlechter (das Meiste).
Außerdem sind Sie im SLI-Betrieb umso schlechter...
 

Kille

Lieutenant
Dabei seit
Nov. 2006
Beiträge
597
#15
Sehr ernüchterndes Ergebnis. Also bei der Leistung sollte die GTS bei 150€ liegen und die GT bei 100€ dann könnten sie mit AMD/ATI konkurieren. Aber so ist das natürlich gar nix.

Und wenn die ersten DX 10 spiele kommen kannst man diese Karten wegschmeißen, weil sie jetzt scho keine Leistung haben! :freak:

mfg Kille
 

ARUS

Lieutenant
Dabei seit
Dez. 2005
Beiträge
942
#16
naja totaler Reinfall ist die 8600GTS sicherlich nicht. Immerhin ist sie schneller als eine 7900GT und mit aktiviertem AA/AF ist sie meist auch schneller als die Konkurrenz. Nur halt die X1950 Pro ist da besser, aber dafür kann ich mit der eben kein Dx10-Spiel wie World in Conflict oder Crysis spielen.

Und sorry solche Sätze wie "Zum Spielen ungeeignet" sind ja wohl absoluter Mist aus verwöhnten Munden. Ich spiel ncoh mit einer 7600GT, soll ich mir jetzt die Kugel geben?
Ne besser nicht, denn Anno 1701, TDU und C&C3 kann ich damit problemlos in 1280 zocken. Und die werde ich mit der 8600GTS sicherlich auch spielen können.
 
Dabei seit
Mai 2005
Beiträge
1.043
#17
Aber dass die GTS und GT nur 32 Unified Shader haben hätte ich wirklich nicht erwartet. Lange wurde ja bei der GTS über 64, bei der GT über 48 spekuliert, zuletzt bei beiden über 48.
Zusammen mit einem Speicherinterface von nur 128 Bit kann da wirklich kein Preis-Leistungsmonster rauskommen. nVidia hätte ich da echt schon etwas mehr zugetraut.

Die GTS mag für nicht sehr anspruchsvolle Spieler mit 17"-19" Monitoren noch ok sein, aber sonst?
 

ownagi

Lt. Commander
Dabei seit
Jan. 2005
Beiträge
1.938
#18
naja ... ehr einzuordnen in der kategorie "schlecht bis richtig beschissen"
aber, wie gewohnt, toller und ausführlicher test!


ps: preis-leistungs technisch echt mies wenn man mal die leistung der x1950pro/gt anschaut
da kann mir auch keiner mit dx10 kommen
die karten wurden einfach ZU sehr beschnitten
 
Zuletzt bearbeitet:
Dabei seit
Juni 2006
Beiträge
2.538
#20
was mich stutzig macht:
G84 = 32 shader
G80 = 128 shader
G80 (beschnitten) = 96 shader

klingt fast so, als wollte nvidia noch einen chip dazwischen bringen mit 64 shadern o.ä.
 
Top