News Details und Fotos zur GeForce 9800 GTX

@Arno Nimus, nunja, habe mir das Ganze mal anhand von Fear angeschaut und die Frames sind auch bei höheren Auflösungen schon einiges höher mit einem Intel Core 2 Extreme X6800:

Mit Core 2 Duo X6800:

https://www.computerbase.de/artikel...0-gts-512-test.738/seite-11#abschnitt_f_e_a_r


Mit Athlon 64 FX 60:

https://www.computerbase.de/artikel...-8800-gtx-test.614/seite-18#abschnitt_f_e_a_r

Bei 1280X1024 ist das schon ein Unterschied von 80 Frames und bei 1600X1200 sind es immerhin noch 37 Frames Unterschied zwischen FX 60 und X6800;)

Klar hängt das auch vom Spiel ab, aber gerade bei Stratgiespielen und vor allen Dingen bei Rollenspielen wie Gothic 3 und Oblivien spielt die CPU schon eine sehr große Rolle, und dass Crysis die CPU natürlich auch extrem fordert ist ja klar.
N-o-x hat mich da auf etwas aufmerksam gemacht, das sehr interessant ist, denn bei Crysis gibt es sehr viele Stellen wo sogar ein Core 2 Duo limitiert und sogar nur 25 Frames trotz 8800GTX darstellen kann, aber einfach mal selber lesen;):

http://www.pcgameshardware.de/?menu=forum&s=thread&bid=421&tid=6458618&mid=6461007#6461007
 
Zuletzt bearbeitet:
meiershans schrieb:
Ich glaube es nicht das diese **** wirklich nur 256bit Speicherdandbreite auf der GTX verbauen. Das hat doch die 8800 GTS 512 schon eingebremst.
Die GTS wurde doch nicht eingebremst:rolleyes:
Das ganze Gedöhns mit der Speicherbandbreite ist doch eh komplett sinfrei. Nvidia würde sicherlich ein größeres Interface verbauen, wenn es Mehrleistung bringen würde. Oder DDR4 mit noch höherem Takt...
 
Ach nein? Und wie erklärst du dir dann, dass die 88GTS 512 je höher Auflösung und Details werden immer mehr Boden zur 88GTX/Ultra verliert?
 
Korn86 schrieb:
N-o-x hat mich da auf etwas aufmerksam gemacht, das sehr interessant ist, denn bei Crysis gibt es sehr viele Stellen wo sogar ein Core 2 Duo limitiert und sogar nur 25 Frames trotz 8800GTX darstellen kann, aber einfach mal selber lesen;):

http://www.pcgameshardware.de/?menu=forum&s=thread&bid=421&tid=6458618&mid=6461007#6461007

Es ging ja sowieso mal die Nachricht rum, dass ein Quad in Crysis Vorteile bringen soll. Mehr Physikeffekte oder so, hieß es damals glaub ich.
 
Zuletzt bearbeitet:
Naja, wenn die 9800 GTX (single) schneller als eine 8800 Ultra ist, kann man damit ja leben. Preislich (399 EUR) wird sie ja auch nicht als Highend-Karte platziert.

Echte Enthusiasten werden ohnehin auf R700 bzw. GT200 im Juni/Juli warten.

3dMark-Jäger werden wohl zur 3850 X2 bzw. 9800 GX 2 greifen müssen...
 
Ball_Lightning schrieb:
Ach nein? Und wie erklärst du dir dann, dass die 88GTS 512 je höher Auflösung und Details werden immer mehr Boden zur 88GTX/Ultra verliert?

Worauf beziehst du dich? Ich kann kein Einbrechen der 256-Bit G92 Chips feststellen:
 
Ball_Lightning schrieb:
Und wie erklärst du dir dann, dass die 88GTS 512 je höher Auflösung und Details werden immer mehr Boden zur 88GTX/Ultra verliert?
Ich denke, dass bei höheren Auflösungen einfach der VRAM der limitierende Faktor ist. Die G80/G92-Karten sind ja nicht so überragend bei der Speicherverwaltung wie die von ATI/AMD.
 
Wieso soll eigentlich der GT200 so früh kommen?

Mit 65nm ist der GT200 kaum realisierbar, 250W TDP lassen grüßen. Die erforderlichen 1,5 Milliarden Transistoren in einen Die zu quetschen wird kein Spass für NV und selbst dann ist der GT200 maximal doppelt so schnell, wie ein G92, eher weniger, weil diese vielen Transistoren sich dann weniger hoch takten lassen.

Imho sind 55nm für den GT200 das Minimum, leicht wird es damit auch noch lange nicht.


Wie sagt fud doch gleich so schön?
and both these cards are expected in the second half of 2008.
Also nicht weinen, wenns erst im Dezember so weit ist.
 
@Unyu: ja wenn Fudzilla das sagt, dann muss es stimmen. Ich habe bei der Ankündigung der GX 2 in einem Post mal die Voraussagen von Fudzilla mit der Wahrheit verglichen. Nicht sehr überzeugend...

Da erscheint mir der Computerbase Artikel (insbesondere unter Berücksichtigung der Quellen) wesentlich zuverlässiger.

Wobei ich mir relativ sicher bin, dass der GT200 nichts mit dem G100 zu tun hat, sondern ein extrem aufgebohrter G92 sein wird.

Meine Vermutung: GT200 als Highend-Karte im Juli, G100 als Nextgen (DX 11, Konkurrent zu Intel Larabee) Q1 09.
 
@Korn86:

Hast du auch den völlig veralteten Forceware-Treiber aus der Zeit der Gründungsväter in Rechnung gestellt, der bei der FX-60 Messung zum Einsatz kam, als die GTX gerade brandneu und die Treiber ganz sicher noch längst nicht für sie optimiert waren? Bevor man eine objektive Beurteilung vornehmen kann, müsste man diesen zuallerstmal durch die aktuelle Version ersetzen, die auch bei den Duo-Messungen zugrunde lag! :)

Davon abgesehen, finde ich 75/83fps (1600x1200, 4AA/16AF, das wäre das passende Setting für meinen 21"-CRT) kein so übles Ergebnis und flüssiger als flüssig geht es mit diesen Leistungsreserven eh nicht oder meinst du, dass du zwischen 75 und 83fps echt noch einen Performance-Unterschied wahrnehmen kannst? (falls ja musst du extrem gute Augen haben, da das normale Solche bei 30FPS am Limit ist!)

Also mal so ausgedrückt: Meine uralte 6800GT für 280 € gegen eine GTX auszutauschen würde sich schon SO gewaltig lohnen, dasselbe Geld nochmal für ein C2D-System hinzublättern hingegen in keinster Weise!

@Sgt.Speirs:

Wenn das mit der limitierenden Speichermenge als einzigem Grund für die Einbrüche stimmen würde, dürften Leute mit einer GT-1024MB diese Probleme ja nicht haben, oder?! Mir ist aber nichts derartiges bekannt. Wäre aber mal interessant, zu hören, was etwa Besitzer einer Gainward GTS-1024MB dazu zu sagen haben!
 
Zuletzt bearbeitet:
@Arno Nimus

Dann schau mal bitte in die aktuelle PC-Games-Hardware da findest du auf Seite 138 einen Hardwareindex auf dem sämtliche verfügbare CPUs mit einer 8800GTX getestet wurden und auch mit aktuellen Treibern;)
Dort stellt die 8800GTX schon mit einem E 6750 mehr als doppelt so viele Frames dar wie ein X2 3800+, der ja schon mehr als veraltet ist, mit einem 4000+ der deutlich schneller ist, habe beide CPUs gehabt ist Gothic 3 unspielbar, das heißt diese beiden CPUs sind die letzten Krücken und es ist eine Sünde solch lahmen CPUs mit einer 8800GTS zu vereinen;)
 
@ topic

ich frag mich wirklich wo die 9800gtx (bzw die ganze neue high end serie von nvidia) ihre Exitenzberechtigung hat.

im vergleich bietet die 9800gtx ausser dem die-shrink nix neues.
rops wurden gekürzt, speicherbandbreite daher von 384bit auf 256bit gesunken, maximaler bandbreite daher trotz reichlich taktsteigerung von 86gb/s auf 70gb/s gesunken, speicherausbau von 768mb auf 512mb gesunken. (vergleich zur 8800gtx)

theroretisch dürfte die 9800gtx also nur durch höheren shadertakt einen vorteil ziehen können da die gpu takterhöhung ja schon auf grund des rop verlustes sich wohl selbst kompensiert.

sieht wohl so aus als würde die herstellung der 9800gtx nur deutlich billiger werden und der einzige grund diese zu kaufen ein hoffentlich günstigerer preis wäre.
(alles bezogen auf die vermuteten release stats der 9800gtx)

im prinzip doch nur ein chiprefresh ohne irgendwelche neuerungen, hoffe das ati in absehbarer zukunft mal nen kracher bringt damit nvidia sich wieder ein bisserl anstrengt.
die 9800gx2 scheint ja nach bisherigen infos auch eher den namen 8800gx2 zu verdienen.

ich hoffe nur das sich die infos alle als falsch herausstellen und die karten doch hier und da ein paar neuerungen bringen sonst wart ich auf die nächste (hoffentlich wirklich neue) generation oder bete das ati mal wieder was im high end segment zu stande bringt.
 
Zuletzt bearbeitet:
Korn86 schrieb:
Dort stellt die 8800GTX schon mit einem E 6750 mehr als doppelt so viele Frames dar wie ein X2 3800+


wieviel es prozentual mehr sind ist unerheblich, wenn man nicht die absoluten zahlen kennt.

bei vollen details liefert dir die graka bei aktuellen spielen eh nur um die 30-50fps, da ists dann egal ob die cpu 50 oder 100 schaffen würde.


mal ganz davon abgesehen will ich sehen wie ein c2d mit 2,67ghz 100% schneller wie ein X2 mit 2ghz ist.

Das würde satte 67% schneller pro mhz machen, was aber blödsinnig ist, weil die c2d pro takt allerhöchstens 30-40% schneller sind und das auch nur ausnahmesituationen, durchschnitt sind eher so 25%
 
@Realsmasher, dann überzeuge dich doch selbst und schau auf Seite 138 der aktuellen PC-Games-Hardware mal nach, da macht ein X2 3800+ nur 20 Frames und ein E 6750 41 Frames in Gothic 3 und in Anno ist der Unterschied noch viel größer da stehts 13 zu 28 Frames, wenn du mir nicht glauben solltest dann schau doch selber mal nach;)

MFG Korn86
 
@ Korn86 wenn es anders wäre wäre es mehr als peinlich, vor allem wenn mann bedenkt wie lange es den x2 3800 schon giebt und der war zu einfürung schon lam und ist jetzt nur noch Lowend aber unterstes, zumal der x2 3800 schon für 40€ hintehergeworfen bekommt der 6750 kostet doch gleich über
110€uronen mehr ein etwas hinkender vergleich.
 
ich kann leider nicht nachlesen, da ich mir solche werbezettel seit geraumer zeit nicht mehr kaufe.

es mag aufgrund des caches oder aus sonstigen gründen in einzelfällen auftreten, aber normal ist das sicher nicht.
 
Das heissgeliebte Crysis läuft auf solchen Systemen in hohen Auflösungen mit AA/AF und very high trotzdem nur als Dia-Show ab, genauso wie auf einem alten "lowendsystem" mit x2 3800! :evillol:
 
Arno Nimus hat vollkommen recht.

Habe Ende letzten Jahres als Bioshock raus gekommen ist, noch einen Athlon 64 3800+Single Core(2004 gekauft) mit 2Gb Ram gefahren, mit meiner GF 8 GTX(02.07 gekauft). Es kommt schon auf das game an aber die meisten Spiele konnte ich voll aufdrehen zb. Bioshock habe ich unter Vista 64bit in DX 10 in 1600*1200 max. Quali gezockt, dem game ist die CPU sowas von wurst...(würden alle Spiele so geil mit der GPU skalieren dann wäre PC gaming um einiges billiger)

Naja im Dezember hat dann AMD für 48€ den X2 4200+ für 939 angeboten und dann hatte ich plötzlich 2x 3GHz die reichen dicke, der ist fast so schnell wie ein 6000+, undervoltet ist er ja noch geiler... :rolleyes:
Für Crysis reicht die CPU locker zocke das unter XP in High mit 4*AF...

Allerdings für Gothic 3 + Medieval 2 etc. brauche ich 2008 dringend einen starken Phenom...
 
Zuletzt bearbeitet:
Klar ist Bioshock ne CPU ziemlich egal. Da wird ja auch nich viel drauf berechnet. Aber es gibt eben auch spiele wie Crysis wo allein die Physikberechnung komplett über die CPU läuft. Man brauch also eine starke CPU um Crysis mit hoher Physik spielen zu können. Stellt man ab, reicht sicherlich auch eine deutlich schwächere. Da ich davon ausgehe, dass Physik zunehmend wichtiger wird und vermutlich auf der CPU berechnet werdne wird, wird wohl auch die CPU wieder eine größere Rolle bei Spielen erhalten.

Es ist also blödsinnig zu bestreiten, dass eine starke CPU für Spiele im allgemeinen nicht von relevanz ist. Individuell gesehn mag das zutreffen, weil die Lieblingsspiele grade zu denen gehören, die keine sonderlich starke CPU brauchen.
 
@Kasmopaya, für Gothic 3 brauchst du nicht zwingend eine schnellere CPU, sondern einen Raid0-Verbund aus schnellen SATA 2 Platten, da die Ruckler in Gothic 3 nur dann auftreten, wenn von der Festplatte nachgeladen wird, also mit deiner CPU kannst du das locker flüssig durchspielen, mein Bruder hat das mit einem X2 5600+, 2GB RAM und einer Geforce 7900GTX mit eben diesem Raid0 System durchgespielt, man muss nur wissen was im System limitiert;)
Bei mir läuft Gothic 3 mit einem E 6600, 4 GB RAM, Raid0 und einer 8800GTS/G92 auf alles High in 1680X1050 mit 16XAF mit über 60 Frames total flüssig. Und durch das Raid0 werden die Nachladeruckler auf ein Minimum beschränkt, mit noch schnelleren Festplatten im Raid0, zB. der neuen 2Terabyt Platte von Samsung dürften die Ruckler komplett Geschichte sein;)
Nur wer gibt im Moment 500 Euro für 2 Festplatte aus:lol:

MFG Korn86
 
Zuletzt bearbeitet:
Zurück
Oben