8800GTX oder 8800GTS 512 ?

@ Pyradonis : Na da kommt aber ein ganz schlauer :D (ist nicht so böse gemeint wie es vielleicht klingt). Dir ist aber schon bekannt das es zwischen G80 und G92 neben dem Fertigungsprozess keine wirklichen Unterschiede gibt? Die Spiele werden also nicht auf G92 optimiert sondern ebenso auf G80. Ich denke keiner wird so blauäugig sein und denken die Spiele in Zukunft benötigen weniger Videospeicher als bisher. Es ist von daher absehbar das die 8er GTX sich mit kommenden Spielen eher noch von der neuen absetzt als umgekehrt (und genau deshalb habe auch ich nun eine 2. dazubestellt :D) . Und im Winter die Heizung nicht mehr anhaben zu müssen ist doch auch was feines ;) .
 
Zuletzt bearbeitet:
DX9, XP32 Bit + Very High Config + OC s. Sig.
 
Link
schau da mal ganz runter.

Ein sehr lustiges (eigentlich eher: fragwürdiges) "Performancerating" :D

Schaut man aber mal auf die Benchmarks der einzelnen Games dann macht sich bezgl. GTX und "Super bei hohen Auflösungen" Ernüchterung breit: Entweder (verglichen mit der GTS) mehr oder weniger Gleichstand oder zwar Unterschiede aber auf "Unspielbarniveau".
Wohlgemerkt: Bei 2560x1600 ! Bei allen anderen Auflösungen siehts für die GTX noch schlechter aus.

Und überhaupt 2560x1600... gebt die Auflösung mal bei Geizhals ein...;)
Bis diese TFTs massentauglich werden (auch bei den Spieleherstellern), ist die GTX längst unbrauchbar lahmer Vollschrott.

Und immer dran denken:
Es gibt keine "zukunftssichere" PC-Hardware, gab es nie und wird es nie geben !

@coupefx2
Grakas, die ein unterschiedliches Speicherinterface (Bandbreite) haben, kann man schwerlich mit "keine wirklichen Unterschiede" abtun.
Klar, das hat viele "One Track Minds" enttäuscht aber die Leistungsdaten der G92 sprechen eine klare Sprache.

Und im Winter die Heizung nicht mehr anhaben zu müssen ist doch auch was feines

Hmm, wenn ich heizen will, benutze ich ne Heizung. Aber ne Graka (GTX), die 40 Watt mehr Strom frisst (als die GTS), wenn ich im Netz surfe oder sonstwas "Nicht-3D-mäßiges" mache, ist einfach nur mies und unzeitgemäß ...


Ach ja, und ich meine es definitiv auch nicht so böse wie es klingt :)
 
Zuletzt bearbeitet:
Es ist schon lustig das gerade das Speicherinterface als vermeindliches Pro-G92-Argument angeführt wird wo doch bekannt sein sollte das gerade selbiges bei der alten GTX/Ultra größer ist (368bit gegenüber 256bit des G92) :D
Sollte ein SLI Verbund der 9800GTX schneller sein als mein kommender 8800GTX-SLI wenn es bei neuen VRam-Intensiven Spielen dahin geht wo es wirklich weh tut (>=1920x1200 + Full AA/AF) werde ich mich gerne eines besseren belehren lassen. Bis dahin denke ich einfach mal einen guten Kauf mit der 2. Graka getätigt zu haben den ich vorraussichtlich in absehbarer Zeit nicht bereuen werde.
Und das mit dem Stomverbrauch ist auch nicht ganz so wild wie es immer gemacht wird. Klar klingen 150W unter Volllast viel. Aber wenn man mal mit 5 Stunden absoluter Vollauslastung Pro Tag rechnet (und das ist wirklich sehr hoch gegriffen) und dies auf Jahr umlegt sind wir bei knapp 55€ zusätzlichen Stromkosten pro Jahr für die zusätzliche GraKa. Ich denke das ist ok. Spoiler ;) -> Wenn ich dem gegenüberstelle das ich (wenn auch nur zum Spass am Wochenende) eine Drecksschleuder mit durchschnittlich 20-22L Super auf 100KM bewege wäre es schier heuchlerei sich um die paar Watt Gedanken zu machen ;) .
 
Zuletzt bearbeitet:
Tobi41090 schrieb:
@-104-,

bekommst du da nicht Augenkrebs mit 25FPS nen Shooter besonders Crysis zu spielen?


Wer lesen kann ist klar im Vorteil, ich habe geschrieben 25+ fps. Das heisst meistens darüber selten aber mal 25 oder darunter. Wobei natürlich ganz am Ende aufm Träger hats schon geruckelt. Deswegen hab ich es auf High gestellt, trotzdem würd es keine GTX oder Ultra packen auf meinen Settings.

Grüsse
 
Zuletzt bearbeitet:
und selbst bei 40 FPS kann man keine Shooter spielen. Meinetwegen auch 50. Immer noch scheiße zum Zocken.
 
Es ist schon lustig das gerade das Speicherinterface als vermeindliches Pro-G92-Argument angeführt wird...

Ist es nicht gerade umgekehrt so, dass die GTX Fans das größere Interface und den Speicher immer wieder als Vorteil anpreisen ? Nur ist dieser "Vorteil" leider an den Spielebenchmarks nicht abzulesen. Die GTX ist mithin (gegen die GTS) ein reiner techn. Daten(papier)tiger.

GTX:

-ältere (veraltete?) Baureihe
-hoher Stromverbrauch
-(leicht) geringere Leistung bei gängigen Auflösungen
-teurer
...im Vergleich zur GTS
 
Bei mir beispielsweise ist die "gängige Auflösung" aber nun mal 1920x1200 und nach Möglichkeit volles AA/AF.
Und da ist es doch fakt das die GTX dort bereits heute "ihre Karten ausspielen" kann.
Für geringere Auflösungen und Abtrichen bei Qualitätssteigernde Features machen die G92 einiges gut , das ist richtig.Da machen diese Karten MOMENTAN auch mehr Sinn (geringerer Vebrauch usw.)
Fakt ist doch aber das sich durch immer VRam intensivere Spiele (so ist der Gang der Dinge seit Voodoo Zeiten nun mal) dieses Mass mangels Alternativen immer weiter zugunsten von Karten wie der alten GTX/Ultra verschiebt. Soll einer verstehen warum die neue GTX zum Release nicht wenigstens ein Gig verpasst bekommen hat.Die einzige plausible Antwort die ich mir selbst darauf bisher geben konnte ist das der Kunde vor der neuen Generation Ende des Jahres nochmal kräftig abgemolken werden soll und diese dann 1GB aufwärts verpasst bekommt (die Spitzenmodelle). Der G92 ist nun mal nur ein G80-Refresh der zwar einige Vorteile hat aber im wirklichen Performance-sektor abgespeckt wurde. Na ja was solls. Haupsache auf dem neuen Volksrechner von MM,Aldi und co. bappt ein Geforce 9 Aufkleber ;) .
Wer sich an einige meiner Postings des letzten halben Jahres erinnert wird wissen das sich wohl kaum jemand mehr gewünscht hat eine wirklich neue GTX sein eigen nennen zu dürfen (und dafür auch gerne ein paar Steine mehr ausgegeben hätte). Aber der GraKa-Gott ist scheinbar ein grausamer Gott und hat mich (und viele andere) nicht erhört ;) .
 
Zuletzt bearbeitet:
y33H@ schrieb:
Bla bla bla ... Fanboy :lol: In 1680*1050 mit AA/AF hämmert die GTX alle andres Geforce bis auf die GX2/Ultra in Grund und Boden.

cYa
? Was für ein Schwachsinn
 
@ mat_2

Ich habe Crysis mit einer Ultra und meinem E6300 @ 3 GHz in 1280*720 "high" (DX9) durchgezockt und
lief mit Müh' und Not an der Grenze zur Spielbarkeit. D.h. für mich, es droppte leider viel zu oft unter 30 Fps
selbst mit solch humanen Settings und dem Sys waren da keine konstanten 30 Fps und mehr drin.
Aber Crysis war gestern, ich zocke es nur noch im MP ...

@ Pyradonis

Der G80 ist, abgesehen vom Dieshrink, bis auf minimale Details exakt so aktuell wie der G92/G94.
Informiere dich bitte mal über die Architekturen ... der G9x ist aufgrund von 256 Bit sogar eher ein Rückschritt.
"Gängige" Auflösung ist in meinem Fall 1680*1050 mit AA/AF - da kommt mir kein G92 mit 512 MiB und 256 Bit ins Haus.

cYa
 
Tobi41090 schrieb:
und selbst bei 40 FPS kann man keine Shooter spielen. Meinetwegen auch 50.


Stimmt, deswegen kaufen sich die Leute ne Ultra/GTX oder GTS 512 um es dann nicht zocken zu können :lol:

Grüsse
 
@ Pyradonis

Das Intro ist ja auch sooooo fordernd und damit sehr aussagekräftig für das restliche Spiel :freak:
Ich habe ingame gebencht mit fordernden Stellen, da zersägt die GTX alle aktuellen G92er um 20-40%.

Alleine in 1280*1024 mit AA/AF liegt die GTX schon 22% vor einer GT/512, also gut 10% vor einer GTS.
In 1680*1050 mit AA/AF zieht die GTX dann von dannen, u.a. weil mehr als 512 MiB benötigt werden *klick mich*

cYa
 
Zuletzt bearbeitet:
Viele scheinen ja zu vergessen das die GTS/512 nur die alte GTS ablösen sollte und keinesfalls dafür gedacht die neue Krone im Highend-Bereich zu sein. Deshalb ist das Speicherinterface und der VRAM kleiner als bei der GTX. Wer große Auflösungen mit hoher Qualität spielen will (High End) der greift zur GTX und wer nicht ganz so viel Geld ausgeben will (immerhin 50€) der greift zur GTS.
 
@ coupefx2

was heißt die Bemerkung (habt Nachsicht bin noch neu ;) )
 
Zurück
Oben