News Erster Hersteller stellt GeForce 9600 GT vor

Ach komm ich bitte dich, es geht hier um eine Mittelklasse Karte, zum spielen locker ausreichend.

Man kann doch auch mit einer 7300 spielen. :)
 
Momentan fehlt mir irgendwie der Grund, Nvidia zu kaufen:

Im Highend-Bereich gibt es die 8800GTX und die Ultra. Selbst die GTX ist teurer als eine 3870X2, und diese übertrifft sogar noch die Ultra. Die einzige Ausrede für ne Nvidia-Karte in dem Bereich ist die SLI-Fähigkeit, und das dürfte wohl die wenigsten Kunden interessieren.

Dann kommen wir zu gehobenen Mittelklasse. Da hat Nvidia mittlerweile so viele Modelle 8800G... , dass es schon langsam unübersichtlich wird. Das Problem: Die Leistungsunterschiede sind zu gering. Warum fast 50% mehr für ne GTS zahlen, wenn die nicht wesentlich mehr Leistung bringt als ne GT. In dem Bereich hat AMD mit der 3870er zu unter 170€ noch das beste P/L-Verhältnis zu bieten, und die Karte ist kaum langsamer als die GT.
Das einzige, was AMD fehlt, ist eine Karte im Bereich 250-300€ (die Ergebnisse von 3850-Crossfire habe ich jetzt nicht nachgeschaut...); die hat Nvidia zu bieten, aber die Leistungssteigerung wäre mir verglichen mit der 3870 eben zu klein um den Preisunterschied zu rechtfertigen.

Bleiben noch die Treiber. Die sind wohl bei Nvidia nach wie vor ein wenig besser. Wer Angst, sich möglicherweise mal mit einem Bug auseinandersetzten zu müssen, mag zu Nvidia greifen. Ich persönlich bin nach vielen Jarhen bei denen jetzt umgestiegen, wobei die geringere Leistungsaufnahme bei den ATI-Karten auch ein wesentlicher Grund war.

P.S.: Diskutieren gerne, Geflame bitte sparen. Ich bemühe mich auch, objektiv zu sein.
 
@ Killermuecke

Die GTX ist billiger als ne X2, da man sie schon für <300€ bekommen kann. Außerdem ist die X2 ne Dual-Karte, dass wird noch nicht von allen Spielen richtig unterstützt
Die GT gibts auch schon ab 180€ und hat damit nen Mehrpreis zu einer 3870 von 5-10% bei teilweise 10-20% Mehrleistung. Naja, dafür hat Ati wiederum den geringeren Stromverbrauch und ich meine auch den besseren Kühler, bin mir da nicht ganz sicher da ich keine von beiden habe. Ich denke bei Erscheinen der nächsten Generation werde ich auch meine 6800GT ersetzen ;)
 
Es gibt noch:
-Stromverbrauch Idle/Last
-Lautstärke
-Preis
-Bildqualität: NVs AF ist besser
-Features:
*NV kann SSAA
*dafür hat der G80 keinen Videoprozessor, der R670 einen besseren als der G92

Dann kommt noch bei der X2 zum tragen:
-Umständlicher zu bedienen; CF läuft nicht immer und nicht immer ohne das man selbst Hand anlegt.


Schön wenn du deinen PC nur zum Spielen verwendest, repräsentativ bist du damit jedoch nicht.
 
hohoho, die balkenlänge ist noch lange nicht die spieleleistung. wichtig sind mehr wie oft und wie tief und wie lange fps-drops sind. durchschnitt oder sogar maximum sagen allein so noch nix aus.
z.b. wären mikroruckler auf diese weise evlt. früher erkannt worden.

möglich wäre es natürlich auch statt dem durchschnitt (ziemlich aussagenlose größe) den erwartungswert anzugeben. das wäre dann wenigstens die typische framerate.
 
Zuletzt bearbeitet:
Ich bin ja mal auf den Kühler gespannt bei dieser Verlustleistung - vll so leise wie die HD3850
An Bandbreite mangelt es der Karte im Gegensatz zu den G92-8000ern ja nicht, nur ist die GPU wieder arg kastriert.

cYa
 
Zuletzt bearbeitet:
Kann mir einfach nicht vorstellen, dass die Karte @ Standard-Takt eine 8800GT @ Standard so gefährden kann. Da muss doch der Prozessor oder was anderes limitieren.

64 "Minirechenkerne" gegen 112 "Minirechenkerne" ist ja fast 50% Unterschied, da sollten die 50Mhz mehr beim Chip und ~100MHz mehr beim Shader eigentlich nicht sooo machen. Im Endeffekt hat die 8800GT mehr "Luft" nach oben, mit ein wenig mehr Shadertakt sowieso.

Gruß ErichH.
 
Zuletzt bearbeitet:
ErichH. schrieb:
Kann mir einfach nicht vorstellen, dass die Karte @ Standard-Takt eine 8800GT @ Standard so gefährden kann. Da muss doch der Prozessor oder was anderes limitieren.
soll sie ja auch nicht, die karte soll das angebot nach unten hin abrunden
nvidia ist doch nicht so blöd und bringt 2 gleich schnelle gpus

die 8800gt 256mb kann allerdings geschlagen werden, da der karte in vielen situation einfach der speicher ausgeht
 
So seh ich das auch, bensen. Ich bezog mich auf den einen verlinkten Test, der hier gern genannt wird, wenns darum geht, wie schnell die 9600GT im Vergleich zur 8800GT ist.
Auch eine 8800GT mit 256 MB Speicher sollte in niedrigen Auflösungen eher weiter vorn sein und erst später einbrechen...
 
Neuer Chip is ja Nett aber so "Mittelrangekarten" hatten wir doch in letzter Zeit eigentlich genug oder?
Also diese ganzen Zwischendinger nerven doch inzwischen!

Früher wars noch easy 3 Modelle low,middle und highend (Bsp. die gforce 4 da gabs 4200 als einsteiger, die 4400 als middle und die 4600 als highend Modell. gut später gabs noch zwischendinger....)

Also warum nicht heute genauso? Nein da werden lieber 20 zwischenkarten raus geworfen die sich alle ein ganz klein wenig von einander unterscheiden.

Find ich Dumm!

Ich wäre für 9200 Einsteiger, 9600 Mittel und 9800 als Highend da wären auch die Kunden um einiges besser dran. Welcher "normale" Mensch der sich eine Computer kauft kann sich denn da noch auch nur halbwegs zurecht finden?
Also sorry aber würde ich nich täglich News lesen und mich dafür interessieren man hätte ja so keine Ahnung was ich kaufen sol......
 
T-DSC schrieb:
Früher wars noch easy 3 Modelle low,middle und highend (Bsp. die gforce 4 da gabs 4200 als einsteiger, die 4400 als middle und die 4600 als highend Modell. gut später gabs noch zwischendinger....)
Die GeForce 4 Ti 4200, 4200 8x, 4400, 4600, 4800 und 4800SE waren alle HighEnd und haben sich kaum unterschieden.. Midrange/LowEnd waren da die GeForce 4 MX 420, 440, 440SE, 440 8x, 460 und 4000..
 
@T-DSC
Wie egoistisch ...

Die 8600 muss endlich abgelöst werden und nein in letzter Zeit gab es vor allem Performancekarten, wie die 8800GT(S).
Die im VRAM verkrüppelten müssen dringend ersetzt werden, da kommt eine 9600GT mit 512MiB gerade recht.

btw die 4200 war nie eine "Einsteigerkarte" (schon allein dieser abwertende Begriff stört)
Die MX4xx Reihe war Lowend, die Mittelklasse war schwer einzuordnen.
 
@T-DSC
das geht heutzutage nicht mehr weil der abstand zwischen highend und lowcost riesengroß geworden ist
vergleich mal gf4 mit gf8

das wär so als hättest du ne 8800gts, gtx und ultra (wie gf4 ti 4x00) und ne 8400gs und 8500gt (wie gf4mx)
dazwischen fehlt doch ganz gewaltig was

aber davon mal abgesehen, der abstand zwischen den gf4 ti modellen ist ja wohl extrem viel kleiner als heutzutage zwischen den modellen
 
luno89 schrieb:
THX @ Lar337 für die Antwort.
War mir nicht mehr sicher.

@At0ri
Hoffetnlich hast du recht, dass die GTS was "neues" sein wird.
Die 9800GTX soll ja laut Gerüchten die 3fache Leistung einer 8800Ultra haben.
Also kann es doch nicht angehen das zwischen 9800ern und 9600ern so eine riesige Wunde klafft.
Da wird bestimmt noch was kommen.

Nope. Die 9800 GTX sollte noch ein G92-Aufguss werden. Der Chip, den du meinst, ist der G200, der aber erst in der zweiten Jahreshälfte kommt.

bensen schrieb:
@projekt-x
man vergleicht das was preislich ähnlich viel kostet
und da ist der gegenspieler der 9600gt eben die 3850

ati nimmt eben ein recht "großen" chip für seine oberen mainstream modelle

ATIs Chip ist sogar kleiner als der von der 9600 GT.

Crazy-Chief schrieb:
[Edit] mir kommt es so vor, kann auch sein das ich es so gehört hab, das es keinen G90 geben wird und gleich zum G100 bzw G200 gegriffen wird bei der neuen HighEnd Serie ala 9800 GTX. Stimmt das so?

[Edit2] hab grad im Netz gefunden das die 9800 GX2 aus zwei G92 GPUs, namentlich G92-450, bestehen soll, also nix mit G100, der kommt dann erst mit der GeForce 10800 GTX. ;)

Quelle: heise - Doppelte GTS? Erste Daten zu Nvidias 9800 GX2

Wie es aussieht, besteht die GX2 aus 2 G92, die 9800GTX aus einem G92, oder einer leicht verbesserten Variante und der nächste richtige Highend-Chip aus dem G200. Der G100 sollte wohl schon der DX11-Chip werden, für den es im Moment eindeutig zu früh wäre.

ErichH. schrieb:
Kann mir einfach nicht vorstellen, dass die Karte @ Standard-Takt eine 8800GT @ Standard so gefährden kann. Da muss doch der Prozessor oder was anderes limitieren.

64 "Minirechenkerne" gegen 112 "Minirechenkerne" ist ja fast 50% Unterschied, da sollten die 50Mhz mehr beim Chip und ~100MHz mehr beim Shader eigentlich nicht sooo machen. Im Endeffekt hat die 8800GT mehr "Luft" nach oben, mit ein wenig mehr Shadertakt sowieso.

Gruß ErichH.

Das habe ich mich auch schon gefragt ...

Luis2006 schrieb:
LEUTE LEUTE, die Shader zu halbieren weist eindeutig darauf hin das es nicht die selben sind sondern eine höhere EFFIZIENZ haben hier schat mal


http://www.tweaktown.com/reviews/1293/nvidia_geforce_9600gt_512mb_g94_tested/index.html

... deswegen les ich mir dieses Review erstmal durch.
 
@T-DSC:
Die meisten Leute sollen anscheinend auch gar nicht durchblicken, sonst könnte man wohl in keiner Werbung für Computer von einer 8400er als Gamerkarte reden oder 8600er SLI Gespann als wahnsinnig schnell.
@Topic:
Für die nächste Zeit finde ich ATI ganz ehrlich besser aufgestellt. Vielleicht kommen ja jetzt wenigstens endlich auch bei NV Stromsparfeatures.
 
Also irgendwas stimmt bei der Karte nicht. Die Karte verbraucht unter Last genausoviel wie die 3870/8800GT, bringt ungefähr die gleiche Leistung, soll aber nur gut halb so viele Shader haben wie die 8800? Für mich sieht es aus, als wenn Nvidia die Shader aufgebohrt hätte, sodass pro Takt pro Shader mehr Berechnungen ausgeführt werden. Irgendwo muss die zusätzliche Leistung doch herkommen.
 
Das macht alles keinen wirklichen Sinn.
Ich kann mir nicht vorstellen, dass nVidia die Archetektur des Chips groß verändert hat.
Da spricht sowohl der Name gegen (G94), als auch jegliche Logik. Das hätte nVidia, so Marketing"süchtig" wie die sind, weit und breit angekündigt.

Und wenn das wirklich die alte Archetektur ist, MUSS diese Karte Probleme gegen die HD3850 haben. Je nach Bench vll gleich auf sein.

Und wenn man sich dann die Benchmarkergebnisse anschaut, kann da was nicht stimmen. Ich hoffen, dass CB Benches kommen. Denn den bisherigen Benches traue ich nichtmal ansatzweise. Das widerspricht jeglicher Logik.
 
Zurück
Oben