Test GeForce 9800 GTX im Test: Nvidia vergisst bei neuer Serie die Neuerungen

Hallo zusammen,

@ 8MiLe

Alles klar, du hast da nicht Unrecht, da habe ich definitiv übertrieben. Ich bezog es aber hauptsächlich für den Zeitraum, seit welchem es 3D Karten gibt. Also in etwa seit 1996, zu 3DFX Zeiten.

Ich hatte ja auch explizit angeführt, daß die Gründe weshalb die G80 GPU`s noch immer mithalten können und sogar mehr als das, weil eben der Konkurrenzdruck momentan nur unzureichend vorhanden ist, weshalb für Nvidia da eben gar keine Notwendigkeit besteht, etwas an dem Zustand grundsätzlich zu ändern.

Vielmehr haben sie jetzt mit dem G92 einfach etwas zur stärkeren Wirtschaftlichkeit, als auch stärkerer Profitabilität getan, denn der G92 ist deutlich günstiger in der Herstellung als der G80 und verbrät bei weitgehend ähnlicher Performance im IDLE weit weniger Strom.

So long....
 
Die Bandbreite und der VRAM sind die Schwachpunkte der G92-GTX im Vergleich zur G80-GTX *klick mich*
PCGH schrieb:
Die durchweg bandbreitenlastigen Szenarien sorgen dafür, dass die Geforce 8800 GTX gleich schnell oder deutlich überlegen ist. Gerade bei Unreal Tournament 3 (dt.) FSAA-Hack gewaltig Bandbreite zu verschlingen: Hier ist die 8800 mehr als 40 Prozent schneller, mit demselben Takt sogar 75 Prozent. Wir vermuten, dass die 512 MiByte VRAM der 9800 GTX hier knapp an der Füllgrenze arbeiten und es daher zu (verlangsamender) Auslagerung kommt.

Überlaufender Video-RAM ist beim "Killermodus" 32xS an der Tagesordnung. Die hervorragende Glättung wird mit exorbitantem Leistungs- und insbesondere Speicherhunger erkauft. So kommt es, dass die 9800 GTX bei Half-Life 2 (dt.) samt Fakefactory-Mod 7.0 auf zehn Fps einbricht, während die 8800 GTX noch 25 Fps schafft. Mit 16xS und reinem 16x Supersampling ist die 9800 GTX noch schneller. Ähnlich sieht es bei UT2004 (dt.) aus: 32xS ist nur auf der 8800 GTX spielbar; mit 16xS sind die Karten gleichauf.

Wenn Sie maximal 4x FSAA in 1.680x1050 nutzen, dann ist die Geforce 9800 GTX dank hoher Rechenleistung die bessere Karte. Nutzen Sie jedoch häufiger bessere FSAA-Modi und/oder eine höhere Bildschirmauflösung, sollten Sie zur günstigen Geforce 8800 GTX greifen. Letztere offenbart trotz ihres hohen Alters keine erwähnenswerten Schwachpunkte - bis auf den hohen Stromverbrauch im Leerlauf. Dieser lässt sich aber durch Untertakten, etwa mit dem Rivatuner, ein wenig eindämmen.

cYa
 
Hallo zusammen,

@ y33H@

Mit deinem Beitrag bestätigst du voll und Ganz, was ich zuvor schon in mehreren Beiträgen aufzeigte, nämlich daß der G80 umso konkurrenzfähiger wird, je höher die Auflösung steigt, umso mehr, wenn dann noch Qualitätsverbessernde Optionen zugeschaltet werden, eben vor allem weil der G92 nur über einen 256 Bit-Bus als auch insbesondere geringeren Speicherausbau von 512 MB verfügt.

So long....
 
Zuletzt bearbeitet:
Man muss aber auch klar sagen, dass solange SI/VRAM nicht limitieren, die G92-GTX ihre Shaderpower auspielen kann. Aber mit einer 270€ Karte zocke ich sicherlich nicht in 1280*1024, und darüber hinaus, gerade mit AA muss halt Bandbreite her und nur 512 MiB sind in meinen Augen ohnehin unterdimensioniert wie sonst was ... VRAM-Bug lässt grüßen^^

cYa
 
Hallo zusammen,

@ y33H@

Ich lasse mich gerne belehren, aber meines Wissens nach ist der sogenannte "VRam-Bug" nur den Karten der 8800er G80 Serie anheim.

Was die Karten mit dem G92 angeht, wüßte ich nicht, daß diese auch Probleme mit diesem Malheur haben. Aber wie gesagt, ich lasse mich gerne belehren, so denn ich da was verpaßt haben sollte.

So long...
 
@ Luxmanl525

Imo ist der VRAM-Bug eine Krankheit aller GF8/9, die man zB an einer 88GT/256 oder einer 96GT/256 noch sieht.
Jedoch ist dieses Thema schon so oft durchgekaut worden, wer es bis heute nicht glaubt, tja ... soll er halt.

cYa
 
Wo genau beweißt dieser PCGH Link, das es an der Bandbreite liegt?

Nicht immer mit dem "VRAM-Bug" umherwerfen. Das eine Karte beim auslagern langsamer wird ist normal. Das eine Karte bei höheren Auflösungen und AA Einstellungen mehr VRAM belegt ist auch normal.
Also ich sehe hier keinen "VRAM-Bug".
 
wazap schrieb:
Hä? Wie kommst du auf den G100? Von dem redet kein Mensch mehr!
Der neue High-End Chip heisst GT200 und nicht G100! Die 9900GTX soll über diesen Chip verfügen, Betonung liegt auf "soll", also nicht sicher.
Wenn doch, dann wird auch diese vermutlich einen gewaltigen Spruch an Performance zulegen können, eventuell so wie es beim G80 der Fall war.

Da bist du anscheinend nicht sehr gut informiert. Der G100 sollte zunächst vor dem GT200 kommen, da mit dem G100 DirectX-11 Suppor kommen sollte. Da das aber noch auf sich warten lässt, wird der GT200 vorgeschoben.Der GT200 ist wahrscheinlich nur ein Refresh des G92 auf 55nm-Basis. Und der kommt im Sommer/Herbst. Der G100 aber erst, meiner Meinung nach, frühestens Anfang nächsten Jahres.

8MiLe schrieb:
in hohen Auflösungen ist die GTX klar besser, sieht man doch am CB Test.. Was will ich mit ner High-End Grafikkarte auf nem kleinen Bildschirm, imo sind gerade die hohen Auflösungen relevant.

Wo verdammt sieht man das denn?
Call of Duty 4, 2560x1600 + 1AA/1AF = 9800GTX(43,8)vor der 8800GTX (40,8)
Call of Duty 4, 2560x1600 + 4AA/16AF = 9800 GTX (26,6) vor der 8800GTX (24,0)
RS Vegas, 2560x1600 + 1AA/1AF = 9800GTX (28,4) vor der 8800GTX (26,3)
RS Vegas, 2560x1600 + 4AA/16AF = 9800GTX (15,9) vor der 8800GTX (14,9)
Crysis, 1920x1200 + 1AA/1AF = 9800GTX (15,0) vor der 8800GTX (14,4)
Crysis, 1920x1200 + 4AA/16AF = 8800GTX (8,5) vor der 9800GTX (5,7)
da unspielbar völlig unrelevant

Unyu schrieb:
@ku_ku_ck
Ich habe ganz klar aufgegliedert, wo die 9800 schneller und wo sie lahmer ist.... es mangelt nunmal nicht unbedingt an der Bandbreite.
Das mit dem VP meine ich sehr ernst. Wenn du denn Sinn eines VP nicht erkennst...., schade.
Warum ist Hybrid-SLI egal? Weil nforce7 und Vista only?
Vergleich die paar Mhz, die du aus dem G80 quetschen kannst mit dem G92.
Lautstärke ist nicht egal, selbst wenn, dann ist die 9800 dennoch im Vorteil, den der NVIO ist wieder in der GPU und der Die ist frei. Leichter/leiser kühlbar.

Das mit dem "egal" war meine persöhnliche Meinung, also meine Ansprüche. Nicht das die Faktoren generell nicht von Belang wären. Der Videoprozessor ist doch nur für HD-Videos besonders von Vorteil oder? Daher für mich auch nicht ZWINGEND nötig, da ich aber einen 42" FullHD-LCD habe, an den ich meinen Rechner SEHR SELTEN anschließe, ganz nützlich.

Pyradonis schrieb:
-die 8800GTX ist halt alt kann aber mithalten. Wer sie schon hat, wird schwerlich Gründe finden, auf ne 9800GTX zu wechseln. Aber die 8800GTX der 9800GTX vorzuziehen wäre auch ein Fehlkauf...

Vendetta schrieb:
kein Fehlkauf wenn man mit HD Videos rummacht ;)

Hä? Wenn man mit HD-Videos "rummacht" sollte man wohl eher zur 9800GTX greifen.

Schinzie schrieb:
Ich weiß ja net, was ihr erwartet. Aber der GT200 hat auch keine neue Architektur und ist auch nur ein Refresh vom G92. Zwar ein stärker überarbeiter, aber so einen Sprung wie der G80 ihn gemacht habt,werdet ihr in nächster zeit gewiss nema sehn.


gruß

Ich weiß was nicht, was du willst? Ich habe nichts anderes behauptet? Habe doch gesagt, dass man auf den G100 warten soll und nicht zum GT200, da dieser, wie du auch sagst, eher ein Refresh wird.

miagi schrieb:
Eins wollte ich noch zu bedenken geben, die 9800GTX soll bei markeinfuehrung 250 euro kosten! Das ist der Hammer, erinnert sich noch jemand wie viel die 8800GTX gekostet hat also sie rauskam? Also diese "unverbindliche preisempfehlung" (in anbetracht der tatsache da er bestimmt um paar euro fallen wird) kann man nur als fair bezeichnen.

Hast grundsätzlich recht, allerdings war die 8800GTX damals so teuer, da sie so einen Leistungssprung mit sich brachte. nVidia kann heute ja nicht die selbe Technik zum alten Preis verkaufen?! Da kann man ja gleich zu einer GX2 kaufen. Der Einführungspreis der 8800GTX lag nämlich über 500€.

achso eins noch, die fps zahlen bei CoD4 mit 1280*1024 bei 4xAA/16*AF ueberraschen mich sehr. okay ich spiele mit meiner 8800GTX bei 1280*1024 4xAA/8XAF aber ich hab durchgehend(limitiert) 91fps die nur ganz selten elicht abfallen.
53,3 FPS mit der 8800GTX bei 1280x1024 4xAA/16xAF muessen also die minimum-fps sein.

Da hat sich noch kein Redakteur zu geäußert. Würde ich auch mal gerne erfahren, ob es sich dabei um die Min.-FPS handelt, da mein Freund mit seiner 88GTX auch in höchsten Qualitätseinstellungen bei 1680x1050 auf 91FPS spielt.

AW: Nvidia GeForce 9800 GTX (SLI)
Die 9800GTX ist doch keine Verarsche. Nur der Preis ist jetzt bei der Einführung leicht zu hoch und das wird sich in den nächsten Wochen regeln.

Mal ein G92 Bandbreiten Test:
http://www.forum-3dcenter.org/vbulle...&postcount=837
http://www.forum-3dcenter.org/vbulle...&postcount=947
Die Bandbreite limitiert nur minimal.
G92 schreit nach z-Fillrate, also mehr Chiptakt, genau deshalb ist es so geil das dieses Monster die 800Mhz packt.

Hört sich irgendwie danach an, als ob du die 9800GTX klar befürwortest oO Oder wie ist das zu verstehen?

Auf PCGH gibt es jetzt ein FSAA-Shotout zwischen der 9800 und ihrem Vorgänger. Allerdings sind die Einstellungen meiner Meinung nach total praxisfern da in aktuellen Spielen 32xSupersampling+8AA+24FSAA sonst was sowieso nicht flüssig spielbar ist - auch nicht mit der 8800GTX.

Und wer denkt, ich bin ein totaler Fanboy und lasse nix an den G92 kommen, der liegt falsch. Ich werde mir in den nächsten Tagen auch eine 8800GTX zulegen, allein schon, um auf der sicheren Seite zu bleiben. Das die 8800GTX in hohen Auflösungen besser ist, so wie es hier alle sagen, stimmt verdammt nochmal nicht. Ich habe oben die Ergebnisse aus Benchmarks kopiert. Wenn dem doch so ist, dann muss ich entweder sofort zum Optiker oder ihr seht irgendwas, was mein Monitor nicht anzuzeigen vermag
 
Zuletzt bearbeitet:
@ Unyu

Ich sehe es als Beweis an, wenn eine Karte ihren prozentualen Bandbreitenvorteil in genauso viele Prozent mehr Fps ummünzen kann. Ich ich sehe, dass sich die G92-GTX mit hohen Settings im Rahmen ihrer Mehr-Bandbreite von der GTS absetzen kann, die Shader bringen nur in niedrigen Settings und selbst da kann sich die G92-GTX mehr in Front setzen, als es rechnerisch die GFLOP/s aufzeigen. Die Füllraten sehe ich nicht als limitierenden Faktor an, die 25 MHz reissen nix.

cYa
 
@unyu
lies mal den von dir verlinkten thread zu ende
wüsste nicht das da irgendwas eindeutig ist

und der test ist so auch blödsinn
wenn man den gpu-takt erhöhen würde und den speichertakt unten lassen würde wäre der zuwachs auch nicht großartig
man kann nicht einfach beides runtertakten und dann teilweise erhöhen

ob jetzt nur die bandbreite limitiert würd ich nicht sagen und lässt sich sowieso schwer testen
aber zu behaupten es mangelt so gut wie gar nicht an speicherbandbreite ist imho falsch
 
Zuletzt bearbeitet:
Ich kennen diesen 3DC Fred gut.
Der soll doch nur zeigen, das man nicht einfach die Schuld auf die Bandbreite schieben darf, keine alltäglichen Taktraten darstellen.

Bei PCGH sehe ich einen übertakteten G80 mit 50% mehr Bandbreite und 60% mehr Pixelfüllrate. Gleichzeitig sehe ich, wie der G80 erheblich schneller ist.

Beim Vergleich zur 8800GTS 512 sehe ich, wie die 9800GTX oft kaum schneller ist, trotz doch so angeblich krassen Bandbreitenlimit.
 
Zuletzt bearbeitet:
Unyu schrieb:
Ich kennen diesen 3DC Fred gut.
Der soll doch nur zeigen, das man nicht einfach die Schuld auf die Bandbreite schieben darf, keine alltäglichen Taktraten darstellen.

Bei PCGH sehe ich einen übertakteten G80 mit 50% mehr Bandbreite und 60% mehr Pixelfüllrate. Gleichzeitig sehe ich, wie der G80 erheblich schneller ist.

Beim Vergleich zur GTS sehe ich, wie die GTX oft kaum schneller ist, trotz doch so angeblich krassen Bandbreitenlimit.

Dann müsstest du dasselbe aber auch bei der G9800GTX sehen, da diese ja praktisch fast nichts anderes als eine GTS512 ist.
 
Hallo zusammen,

@ ku_ku_ck

Du liegst falsch damit, daß der G200 in 55 Nm gefertigt wird. Er wird definitiv in der Strukturbreite von 65 Nm gefertigt. Nach dem was die üblichen Auguren gerade Heute propagieren und man nachlesen kann, kommt der G200 im Juli diesen Jahres.

@ y33H@

Tut mir leid, aber sag mir doch bitte mal, wo ich nachlesen kann, daß der G92 auch dem Malheur mit dem VRam Bug anhängt. Ich habe bis zum heutigen Tage noch keinen solchen Test etc. zu Gesicht bekommen. Ne, also ich denke, du liegst falsch.

Der VRam Bug ist definitiv nur dem G80 anheim. Und ja, vor allem spürbar bei Rambestückung von 320 MB, also speziell dem 8800 GTS 320.

So long....
 
@ Luxmanl525

Schau mal dir diese Benches an und erkläre mir, warum eine HD3850/256 trotz deutlich weniger Power deutlich vor einer (abkackenden) 88GT/256 liegt:



Auch die Links zu expreview sind da spannend - CoJ DX10, CoH DX10, Crysis und WiC; die HD3850/256 basht die 88GT sowas von.

cYa
 
y33H@ schrieb:
@ Luxmanl525

Schau mal dir diese Benches an und erkläre mir, warum eine HD3850/256 trotz deutlich weniger Power deutlich vor einer (abkackenden) 88GT/256 liegt:



Auch die Links zu expreview sind da spannend - CoJ DX10, CoH DX10, Crysis und WiC; die HD3850/256 basht die 88GT sowas von.

cYa

Was hat es mit diesem VRAM-Bug überhaupt auf sich? Betrifft es auch die 8er GTX?

@ Luxman:
Da hast du Recht, habe ich völlig vergessen. Ersten Gerüchten nach sollte er in 55nm gefertigt werden, neuerdings häufen sich aber immer mehr, dass es definitiv 65nm wird.
 
@ ku_ku_ck

VRAM-Bug ist OffTopic ... durch diesen "Fehler" brechen alle GF8/9 bei über vollem VRAM gerade mit AA komplett zusammen, d.h. extreme Fps-Einbrüche bis hin zu Abstürzen. Jedoch zeigt sich die ganze Geschichte nicht bei allen Spielen und in verschiedenen Stufen. Bei der G80-GTX gibts den Bug auch, nur bekomme mal 768 MiB voll und mache noch AA an, da geht dann auch eine GTX unter, ist mir zB in Oblivion passiert. Ich bin vom Vorhandensein des Bugs bei GF8/9 überzeugt!

cYa
 
Zitat Yander:

"Hoffentlich bleibt uns AMD/ATI noch eine Weile erhalten.
!SO! sieht es naemlich aus, wenn keine wirkliche Konkurrenz besteht.
Das sind die ersten Anzeichen einer solchen Entwicklung.
Dann ruhen sich die Hersteller aus und schroepfen UNSER Portmanaie."

Ist genau mein Ansinnen!
Leider bedenken das viele der hyper super mega Game Kiddies nicht und kaufen nur
das schnellste was zu kaufen ist. (ok, auch viele nicht nachdenkende Erwachsene)
Derzeit eben Intel und nVidia.
Wenn AMD/ATI den Bach runter geht werden die beiden uns wie früher Intel die Preise diktieren und dann geht das Geheule los.
Weil eben fast keiner über den Tellerrand hinausschaut !
Ich werde nach wie vor nur ATI/AMD kaufen, denn erstens sind mir die Preise von Intel und nVidia zu unverschämt und zum anderen kann man nur so den Konkurent zu den beiden Preisdiktatoren erhalten.
 
@ku_ku_ck
In meinem letzten Satz ging es um G92.

Luxmanl525 schrieb:
Der VRam Bug ist definitiv nur dem G80 anheim. Und ja, vor allem spürbar bei Rambestückung von 320 MB, also speziell dem 8800 GTS 320.
Ein zu kleiner VRAM ist kein Bug, aufwachen!

Das die Karten bei vollem RAM lahmer werden ist voll normal.
 
@ Unyu

Schau dir den Post #215 noch mal genau an ... es ist ja wohl nicht zu leugnen, dass das nV'sche Speichermanagent
deutlich mieser ist als das von AMD; so extrem mies wie das ist, nenne ich es halt gleich Bug. HD3850/256 basht 88GT/256.

Klar sinkt die Leistung durch volles VRAM, aber solch extreme Enbrüche bis hin zu Abstürzen (!) gibts nur bei den GF8 und 9!

cYa
 
Zurück
Oben