8800GTX oder 8800GTS 512 ?

Habe noch irgendwo den Karton des NT. Was sollte denn das NT haben ,pro Schiene und Combined ? Schau ich dann mal nach. Meins ist schon ca 3-4 JAHRE alt ...
 
@ y33H@
hab ich etwas über shaderpower geschrieben?
Die gts/512MB wird in einem jahr besser als die gtx sein.
256bit = (-)verbrauch, (+)leistung
384bit = (+)verbrauch, (=)leistung
ich hätte bei der gts auch (=)Leistung machen sollen!

wie bei auto motoren den verbrauch zu veringern aber die leistung zu steigern.
Ob 256 oder 384 Bit macht nicht wirklich großartig was am Stromverbrauch aus
guck HD2900XT 512Bit macht doch was aus denkmal an einem Fernseher was der an strom in standby verbraucht macht "doch" kohle aus oder?

naja Over&Out
 
Pyradonis schrieb:
Eine äußerst gewagte Aussage...
Das Ding kostet mittlerweile unter 190€. Dafür gab es vor 1-2 Jahren nur "mal eben so"-Mittelklasse Grakas mit deutlichen Leistungsabstrichen zur jeweiligen Oberklasse.



Das ist (DEINE) pure Spekulation !

Erst mal kommt die 9xxx Serie. Die ist auch "nur" G92. Und die 10xxx Serie dürfte dann Leistungswerte besitzen gegen die die der GTX (und auch der GTS) wirken als ob die Dinger defekt sind.

Wenn aber heute schon G92 dominiert und die nächste Generation auch G92 ist, dann rate mal, auf welchen Chip die Spielehersteller ihre Games hin optimieren...

G80 ist ALT und ALT heißt bei PC Hardware: TOT !


Zu Punkt 1: Die GTS ist imo auch bloß Mainstream. Insofern also kein Widerspruch ;).
Zu Punkt 2: Das ist keine Spekulation, sondern Fakt. :cool_alt:

Es gibt einen triftigen Grund, warum die 8800 GTS 8800 GTS heißt und nicht 8850 GTX!:rolleyes:

Wenn du den G80 als alt bezeichnest, dann ist es doch um so bemerkenswerter, daß er noch immer das Feld dominiert, oder?:evillol:

Ich bleibe bei meiner Aussage - die GTX ist die erste Wahl...:king:
 
@ supergulu

Warum zur Hölle soll die GTS/512 besser sein als die GTX? Bis 1680*1050 ja, darüber hinaus nicht.
Und warum ziehen die G80 aus den 174.xx Treibern Vorteile - richtig, weil G80 und G9x nahezu gleich sind.

Die HD2900TX wird in 80nm, die bis auf die 256 Bit praktisch identische HD3870 jedoch per Dieshrink in 55nm.
Vergleicht man eine HD2900XT/512 Bit mit der HD2900XT/256 Bit, ist letztere keine 10 Watt sparsamer.

cYa
 
über 1680x1050 verwenden nur einzelheiten die die kohle dafür haben und der was schon die kohle dafür hat kauft sich gleich 88ultra in sli.

@ y33H@
wie groß ist dein Monitor?

Und jetzt noch mal auf deutsch.
 
ich glaub er meint, wer so viel Geld hat, der sich nen 22" Monitor oder größer kauft, der kauft sich dann gleich zwei 8800 ULTRA SLI.
 
Gut aber die 22Zöller sind heute auch nicht mehr allzu teuer!
 
ja ich weiß. Werde mir auch bald einen zulegen. warschienlich den LG mit 10.000 Kontrast. Der hat mich überzeugt im Prad.de Test. Wird aber noch bisschen dauern, weil demnächst werde ich wieder viel in Hardware investieren.
 
Auch wenn diese Diskussion recht interessant ist, sollten wir hier wieder zurück zum Thema kommen... Eigentlich ist der ganze OT-Spam meine Schuld... :( Sorry!
 
@ supergulu

19er CRT @ max. 1600*1200 und ein Samsung 206BW @ max. 1680*1050.
Der 206BW kostet rund 200€, d.h. man muss kein Bonze sein um sich sowas zu kaufen :rolleyes:

cYa
 
Tobi41090:ja ich weiß. Werde mir auch bald einen zulegen. warschienlich den LG mit 10.000 Kontrast.

:stock::stock::stock:

Also definitiv ne GTX würd ich sagen.
Wenn man auch nur kleine Auflösungen nimmt, kann man dann ja immer noch schon SS reinklatschen.. Dann is die GTX selbst in kleinen Auflösungen immernoch besser als ne kastrierte G92.. ^^
 
@Centurio81,

deinen Vorschlag werde ich leider nicht folgen:D

1. muss ich den Bildschirm erst mal haben und damit meine 7900GTX quälen.

und 2. kommt dann der GT200 rein und nicht so ne alte Mühle, die zwar Leistungsmäßig nicht schlecht ist aber schon ziemlich lange auf dem Markt ist.

außerdem wie kommst du da drauf, dass du mir ne Grafikkarte empfiehlst, wenn ich gar nicht danach verlange?
 
Ich kann lesen, aber deinen kryptischen Satzbau halt nicht :freak:

cYa
 
Zurück
Oben