Test GeForce 9800 GTX im Test: Nvidia vergisst bei neuer Serie die Neuerungen

@ BERBERJESUS

Wenn du alleine 2 GiB an VRAM hast, bleibt dir kaum noch normaler RAM unter x86.

cYa
 
Müssen immer die kleinen Ausreißer als Argumentationsbasis dienen?

Ich weiß nicht, auf was du jetzt quoten wolltest. Aber ich sage, dass die 30" Monitore nicht verbreitet sind. HD gaming jedoch geht mich und auch immer mehr andere etwas an und deswegen erwarte ich von einer "next -gen" Grafikkarte, dass sie dieses darstellen kann.
Denn ansonsten könnte ich mir auch so eine Luftpumpe wie die 9600gt übertakten ;) ... und die Hälfte zahlen.
 
Nun ja, mein 21"-CRT, war vor 11 Jahren, als ich ihn mir zugelegt habe, auch alles andere als verbreitet!
Heute hat jeder mit einem 19"-TFT etwa dieselbe Bildfläche! Das ist der Lauf der Dinge und so ändern sich die Zeiten bzw. Verhältnisse!

Die Situation, wie sie sich heutzutage für Besitzter eines 24" oder auch 30"-TFTs darstellt, ist jedoch ungleich günstiger, als das was ich etwa vor 11 Jahren mit meinem 21"-er in Bezug auf passende Grakas vorfand!

Daher bin ich mir sicher - zumal bei den absolut moderaten Preisen, die man heute im Gegensatz zu früher für einen 24"-er bezahlt, dass es nicht allzu lange dauern wird, bis dieses Grösse zum neuen Standard avancieren wird, denn eines kann ich euch versichern:

Wer einmal "Blut geleckt" und einen so grossen Monitor mit seiner grosszügigen und angenehmen Bild- bzw. Nutzungsfläche "gekostet" hat, der wird nie wieder freiwillig auf einen "kleinen Pinscher" zurückwechseln! :D

Das nur mal dazu! (Verzeihung mein OT!)
 
Ich bin von einer 19er Röhre (1600*1200 @ 75 Hz) auf eine 20er Samsung 206BW (1680*1050 @ 75 Hz) umgestiegen - und will nie wieder zurück.
Wobei mir alles über 20-22 Zoll schlicht zu groß ist um es beim Zocken zu überblicken, zumal man dafür ein GPU-Monster braucht; arbeiten ist bei 30'' top.

cYa
 
Luxmanl525 schrieb:
@ Miagi

Gerade selbst nur 5 Frames können insbesondere bei Crysis den Unterschied zur Spielbarkeit ausmachen. Das Game solltest du da besser nicht für deine Argumentation anführen, denn da kommt es explizit auf jedes Frame an, was man kriegen kann.

Das Gleiche gilt ab einer bestimmten Auflösung für World in Conflict.

Jo ich weiss ich hab mir Crysis im Steelbook einen tag vorm offiziellen release gekauft und habs im singleplayer auf 1024*786 0xAA/AF und allen einstellungen auf Very High gespielt. Sah sehr geil aus viele FPS hatte ich nicht es war eher so am limit 20-30 je nach situation. wenn ich mich langsam bewegt habe wars okay, schnelle schwenker mit der kammera erthuellten die muehe und not der karte. Online hab ich dann aber niedrigeren qualitaetseisntellungen gespielt da sind FPS wichtiger.

Bei Crysis sind 5 FPS mehr bei durchschnittlich 30fps (wobei über 30FPS mann sich schon echt freuen kann) ein plus von fast 17% und von 20 auf 25 FPS ist es ein plus von satten 25% das schon echt viel.
Aber bei Crysis rueckt gegenueber anderen spielen das testfeld näher zusammen! bei allen tests die ich gesehen habe.

Axo wenn meine lieber 19" tft 4:3 monitor kaput gehen würde, würde ich mir nen ordentlichen 22" oder eher 24" hollen und dann wäre ich echt in versuchung mir eine zweite 8800GTX in den pc zu stecken.
 
Zuletzt bearbeitet:
@y33H@
Mich würde mal die VRAM Auslastung bei den gegeben Tests interessieren... :)
Erst mal kannst du wählen zwischen 23% mehr Bandbreite und 28% mehr Pixelfüllrate, warum der G80 wenns ernst wird schneller ist.

FSAA:
SSAA knabbert im Vergleich zu MSAA an allem gewaltig, an der Füllrate aber eben viel mehr als an der Bandbreite.... und SSAA ist ja quasi nichts anderes als eine vervielfachte Auflösung.
Warum bricht eine 8800 GTS640 so viel mehr als eine 8800GTX ein? http://www.hardware.fr/articles/671-4/ati-radeon-hd-2900-xt.html (Ganz unten bei der ROP Betrachtung)
Warum bricht die HD2900XT trotz brachialer Bandbreite und hohen Auflösungen so ein?

Vielleicht reicht es erst mal im Hinterkopf zu behalten, das man mit Banbreite alleine noch nichts berechnen kann. :(

@BERBERJESUS
Mäßige Einstellungen sind langweilig.
Wobei es auch schlimm wäre, wenn die erhältlichen Karten nicht irgendwie zu flüssigen Frameraten zu überreden wären.
Nein, den zweiten Punkt musst du nicht verstehen, das gehört in den GX2 Fred.
 
Unyu schrieb:
Warum bricht eine 8800 GTS640 so viel mehr als eine 8800GTX ein?
wo tut sie das denn?
die brechen beide gleich stark ein, mit nem kleinen ausreisser bei 8xAA
warum sollte es auch nicht so sein? ist ja die gleiche architektur.
die "relativen einbrüche" sind ja unabhängig von der anzahl an ROPs.


zumal das ja die theoretische z-fillrate ist
ob die jetzt in der praxis zu gering ist sieht man in dem test nicht
 
Zuletzt bearbeitet:
@ Unyu

Der Bandbreiten-Vergleich zieht natürlich nur bei G8x und G9x, schließlich sind diese Architekturen extremst ähnlich - eine HD2900XT kann man da nicht mit reinpacken. Wolgang misst den VRAM-Verbrauch immer mal wieder, von daher ist die Aussage, es liege bei der GX2 am Speicher, schon gerechtfertigt. Bei der GTS/640 glaube ich mit 8xAA eher ans Limit der Bit/VRAM, wobei man das prüfen müsste.

cYa
 
joa 512mb sind schneller voll als man gucken kann
gestern bei serious sam 2 gesehen. auf einmal sinken die fps in den einstelligen bereich
einmal alt+tab und es läuft wieder wie butter

@xp_home
naja da man auch gleich die texelfüllrate mit erhöht, doch recht ungenau
 
nur weil irgendetwas nicht unbedingt limitiert heisst es doch nicht gleich das eine erhöhung nichts bringt
ist ja jetzt nicht so das die z-füllrate oder speicherbandbreite so extrem limitieren das mal eben die hälfte der TMUs däumchen drehen

der G92 hat auch viel mehr rechenleistung als der G80, eine erhöhung des shadertaktes wird trotzdem viel bringen auch wenn man sagt die bandbreite oder weiss der henker was limitiert
 
bensen schrieb:
der G92 hat auch viel mehr rechenleistung als der G80, eine erhöhung des shadertaktes wird trotzdem viel bringen auch wenn man sagt die bandbreite oder weiss der henker was limitiert

Da Wette ich dagegen. Also in Spielen und Einstellungen, in denen die Ultra oder gar die alte GTX gewinnt, bringt noch mehr shaderleistung doch kaum was. Das tatsächliche Problem wird dadurch nicht behoben, den wie gesagt hat die Karte bereits mehr Shaderleistung als die Ultra. Die Shader können schließlich nichts berechnen, wenn ihnen die Daten nicht zukommen und die TMUs können auch nichts machen, wenn die TAUs oder der Speicher limmittiert also drehen die sehr wohl die meiste Zeit die Däumchen in diesen Spielen und Einstellungen in denen die Ultra gewinnt.

An ein paar Stellen, da wo die nicht Däumchen drehen, kriegst du ein paar FPS mehr, aber den wirklichen Durchbruch schaffst du nicht und genau so kann man beim Test die Limmitierung herausfinden. Die Karte ist immer nur so stark wie das schwächste Glied...
 
Zuletzt bearbeitet:
Entäuschende Karte.

Pro:
Gute Performance in Humanen Settings
Recht Kühl

Kontra:
- Bricht in Extremen Settings ein und sinkt teils deutlich unter das Niveau einer 8800GTX / 8800 Ultra, HD 3870X2, HD 3870
- Stromverbrauch
- PREIS

Die Karte ist irgendwie, genau wie die 9800GX2 nen Witz.
Gerade in den Settings wo man sich Grafikkarten für den Preis Kauft bricht die performance teils auf ein absolut entäuschendes Niveau ein.
Wo sie selbst von den bald 1,5 Jahre alten Vorgängern gnadenlos nieder gemacht werden.
Auch die ATI´s halten hier hervorragend dagegen und können sich in hohen settings teils Deutlich absetzten, bei weitaus niedrigeren preis.


Frage mich ernsthaft welchen sinn diese Karten machen.
Habe ich ein normales Spielesystem mit nem 19" TfT und normalen Bugett nehme ich eine 8800GT / HD3870 / 8800GTS.
Habe ich ein High End System und genug Kohle mitm 22" TFT nehme ich eine HD3870X2 oder ne SLI Kombi aus 8800GT oder 8800GTX.
Jede davon ist deutlich Billiger wie die neuen Verkorsten 9800GTX und GX2 und bringt bessere Leistung.
Verstehe den Sinn der Karten einfach nicht.
 
Spätestens, wenn die GeForce 8800 GTX nicht mehr (zu normalen Preisen) Lieferbar ist, wirst du den Sinn verstehen.^^

Der 90nm-Chip der 8800 GTX wird nicht mehr hergestellt, weil er zu teuer in der Fertigung ist. Der günstigere G92-Chip wird es später erlauben den Preis noch tiefer zu machen und erlaubt jetzt mehr Gewinn für nVidia...
 
Man könnte echt in Versuchung geraten, sich noch ne zweite 88GTX zu kaufen, bevor sie gänzlich vergriffen sind. Zumal wenn man eh ein SLI-fähiges Mobo hat! ;)
 
Frechheit, aber das problem ist, dass nvidia und ATI die neue GPU-genaration erst ende Sommer 2008 rausbringen wollen(meiner meinung nach erst im Herbst) und so soetwas wie ne sommerflaute ist. Meine GTS ist zwar kein Low-end aber crisis auf Very High get bei mir schon net so gut. Also bleibt nur auf SLI zu hoffen und mit ne zweite GTS zuholen
 
Zurück
Oben