News nVidias GeForce 7900 GS und 7950 GT gelistet

;o)UHum;2192783 schrieb:
Das NV das absolute "Must-Have" Zukunftsfeature HDR in voller Präzision nur ohne AA darstellen kann kotzt mich auch massiv an. Da kauf ich mir ne Karte für ca. 240€ (Standard 7900GT) und kann Oblivion, SplinterCell3, FarCry, AOE3, SiriousSam2(OK, bei SS2 sieht es eh beschissen aus-aber trotzdem ...) und die meisten kommenden Games nicht mit HDR + AA zocken.-Ein Witz. Vor allem für GX2-User!-Jede ATI X1300 kanns!

Ich bin kein Fan-Boy! Ich kaufe mir Grafikkarten nach Ihrem Preis/Leistungsverhältnis.-Da ist es absolut egal ob eine ATI - oder NV-GPU darauf werkelt. Z.Zt. hat aber ATI zumindest im Segment 200-300€ mit Ihren 1900GT, 1900XT 256 und 1900 XT 512 eindeutig die Nase vorne!-Allein von der Preis/Leistung.-Wenn man natürlich ein neues Netzteil braucht, dann kann es schon wieder ganz anderst aussehen.
Gruss

Du sprichst mir aus der Seele. Leute, Zocker, Insider welche sich ne 7950 GX2 gekauft haben und alles auf max. zocken können, auch 1600x1200 mit AA/SAA, dürfen die neuen Games dann eben OHNE HDR + AA spielen, welches sehr zu bemitleiden ist !!!!!!!!!!
Bei solch einer extremen Performance welche die GX2 bietet. Und dass nun mehr oder minder alle Games mit HDR und SM3.0 daherkommen ist wohl mehr als deutlich zu bemerken.
Schade für NV, welche bereits vor 2 Jahren das sagenumworbene HDR ankündigten und auch die ersten Karten dazu rausbrachten. Da sieht man wieder wer mehr auf Qualität und nicht "nur" auf die Performance setzt.
Da kann nur mehr der G80 was richten.
 
@39/40
die wird schon deutlich schneller als ne 7600gt sein
sie entspricht ja einer 7800gt mit erhöhten taktraten 450/660 gegen 400/500

wird wohl zwischen 7800und 7900gt liegen
 
naja ich hab auch nv (7600GT) und verzichte lieber auf AA/SAA anstatt auf SM 3.0 bzw. HDR. Splinter Cell 3 ohne Shader 3 sieht gleich nur halb so schön aus wie mit. Meine Meinung. AA dazuschalten wäre nett, aber naja so viel Unterschied seh ich da noch nicht. Da finde ich Shader 3 doch irgendwie deutlich wirkungsvoller, da sieht man jedenfalls Veränderungen/Verbesserungen
 
? warum nimmste nicht sm3 und AA?

der rest ist wohl geschmackssache
bei fast jedem spiel sieht hdr richtig bescheiden aus
aa dagegen schon sinnvoll, auch sehr gut sichtbar
bei fear oder jedem rennspiel sieht man die treppen

allerdings lässt meine 6600gt bei aktuellen spielen keins von beiden zu ^^
 
wenn die Gamerkiddies nicht für jeden einzelnen Frame pro Tag neue Hardware kaufen würden, hätte es wohl nach der 6800 erst wieder eine 7950 GTX gegeben... Und ich find die Leistungsschritte so lächerlich klein, dass ich von der GF2 GTS bis zur 7600GS gewartet hab. Mal sehen, ob ich mit dem Erscheinen der GeForce 12600 GS dann mal wieder eine neue Karte kaufe...
 
Die 7900 GS liegt etwa zwischen 7900 GT und 7600 GT oder ? In früheren Generationen wär sie die 6800 LE oder 4200Ti ?!

Und würd es sich lohnen 50 € zur 7900 GT drauf zu legen ?!
 
Kauft sich von euch echt jemand so teure Grafikkarten !?
Ich sehe das wie meine Vorredner!
Ich hatte vorher eine GF4 Ti4200 und habe mir vor etwa ein 1 1/2 eine noch recht aktuelle GF FX5950U und war oder bin damit recht gut bedient.
So eine Karte oder noch besser SLI braucht man doch noch garnicht so umbedingt, oder? Nur das die Grafik minimal besser ist?
Auch wenn nächstes Jahr schon die GF 8 kommen soll, werde ich mir ende des Jahres erstmal eine GF 6800 Ultra hollen, da man mehr einfach nicht braucht und zu gleich nicht mehr so teuer und ist die beste der älteren Modelle.
So eine Karte kommt mir frühstens in 2-3 Jahren in den PC, außer ich gewinne so eine :-)
 
Hallo ManPon, :)

ManPon schrieb:
@19:
Sorry, aber du ziehst einer X1900XT 256MB die 7800GTX 256MB vor?
Du weisst aber schon, dass die X1900XT 256MB viel schneller als die 7800GTX 256MB ist!

... Und Oblivion mit einer 7800GTX 256MB mit 16xAF? Schaust du gerne Dia Shows?

---> GPU - Vergleich <---
es war gar nicht so einfach, einen neueren Test zu finden, in dem auch noch eine ältere 7800GTX/256MB berücksichtigt worden ist.

Aber Google sei Dank, hat’s dann doch noch geklappt - hier kannst du nachlesen, wie gut sich das alte Schätzchen noch verkauft.

Deine Aussage zur 7800GTX/256MB im Verhältnis zur X1900XT/256MB kann ich so jedenfalls nicht nachvollziehen.
(... ja, ich weiß, dass die X1900XT/256MB gar nicht im Test auftaucht, aber mit der X1800XT/512MB, der X1900XT/512MB und der X1900XTX/512MB als Ersatz, ist eine Einordnung wohl nicht besonders schwierig ...)

Mein eigenes Fazit:

Sicherlich muss sich die 7800GTX/256MB in den synthetischen Benchmarks eindeutig geschlagen geben (... Ausnahme hier die X1800XT/512MB im 3DMark05 ...), aber in den direkten Spielebenchmarks sieht dann die Geschichte, mit Ausnahme von F.E.A.R, dann doch etwas dezidierter aus.


F.E.A.R.
1024 x 768 FSAA 4x - AF 8x

55 FPS - 7800GTX/256MB
71 FPS – X1800XT/512MB
80 FPS – X1900XT/512MB
83 FBS – X1900XTX/512MB


Quarke 4
1280 x 1024 FSAA 4x - AF 8x

90,7 FPS - 7800GTX/256MB
89,5 FPS – X1800XT/512MB
87,1 FPS – X1900XT/512MB
90,9 FBS – X1900XTX/512MB


Serious Sam 2
1024 x 768 FSAA 4x - AF 8x

56,3 FPS - 7800GTX/256MB
54,3 FPS – X1800XT/512MB
55,0 FPS – X1900XT/512MB
55,7 FBS – X1900XTX/512MB


X³ : Reunion
1280 x 1024 FSAA 4x - AF 8x

44,0 FPS - 7800GTX/256MB
48,3 FPS – X1800XT/512MB
50,1 FPS – X1900XT/512MB
51,1 FBS – X1900XTX/512MB und in einer Auflösung von 1024 x 768 liegen zwischen der 7800GTX/256MB und der X1900XTX/512MB nicht einmal mehr als 1 FPS!


Und noch etwas - in Oblivion gibt es auch keinerlei Diashow, trotz 16AF und 1280er Auflösung ...

P.S.:

AMD64 4000+
nForce4 ultra
1024MB DDR400 OCZ

... damit entspricht mein System fast dem Test-Equipment ...
 
@Sascha631: sehe Deine Position vollkommen ein. Nur ist die Aussage "reicht die Grafikkarte" doch sehr dehnbar. Es hängt eben sehr von den eigenen Ansprüchen ab und was man zockt. Für ältere games oder grafisch wenig anspruchsvolle Titel brauchts sicher keine Grafikmonster.
Aber wenn man v.a. shooter oder Rennspiele der modernsten Generation auf hohen Auflösungen spielen möchte, kommt man an einer leistungsfähigen Graka Richtung 7600GT aufwärts kaum vorbei.

Mfg
 
@18

Ich besitze eine 6800 Ultra und ich kann 100% sagen, dass die Texturen bei Oblivion nicht so schrecklich aussehen. Ich bin da sehr empfindlich. Dieses gelaber bringt mir nicht viel, wenn ich es nicht mit eigenen Augen sehe. Und das war bis jetzt nicht der Fall.:rolleyes:
 
hi
(7900gs)
nach den Pipes und den punkten ist sie wie eine 7800gt .

Nur schade das ich mir mal eine Highend GK am Anfang des Jahres 06 gekauft habe.
Und zwar ne xfx 7800 gt extreme Gamer ca 320 euronen.

Wie mans macht ist eigendlich immer falsch...

Wollte eigendlich meinen xp 3000+ 400 fsb mit agp ne neue karte kaufen nur es gab nichts
dann am 27.12 bei atelco bekommen die xfx 6800gs sollte ja ne extreme sein , nichts war.
Und das für 269,- euro glaube ich.

Nach langen hin und her , die 6800gs zurück , und mich kurz entschlossen einen neuen Recher zusammen zubauen mit ne 7800 gt (PCIe).
Kurz danach wurde schon die 7900 gt angekündigt die die Leistungsdaten einer 7800 GTX hatte:freak:

toll
skynet_first
 
Ich werde jedenfall mit meiner XFX 7800 GTX welche hier auf 475 Mhz läuft sicher nicht aufrüsten. Damit liegt sie zwischen der 7900 GT und GTX laut meinen vergleichsbenchmarks. Das einzige was nervt ist, dass sie nur "256" MB Ram hat, doch es läuft alles so sauber, die paar mehr FPS sind mir egal. Ich warte sicher auf die DX 10 Karten der 2. Generation, den die der 1. Werden DX10 Effekte sicht nicht absolut flüssig darstellen. Ist doch immer so mit den ersten Grafikkarten der kommenden DX Generation.

mfg

Ruffnax
 
@Thaquanwyn
stimmt verdammt schwer nen test zu finden, moment zu welcher seite gehört das forum noch mal?
stimmt cb. man munkelt die machen manchmal reviews von grafikkarten
@zan1
wow respect, der erste post und sofort für die fische, das muss man erst mal hinbekommen
 
bensen schrieb:
@Thaquanwyn
stimmt verdammt schwer nen test zu finden, moment zu welcher seite gehört das forum noch mal?
stimmt cb. man munkelt die machen manchmal reviews von grafikkarten

... jo, stimmt, aber nur manchmal! :D :D :D
 
Zuletzt bearbeitet:
Mal ne blöde Frage. Muss man sich bei NV eigentlich immernoch zwischen HDR und AA entscheiden oder kriegen die das inzwischen auch gleichzeitig auf die Reihe?

Sorry für Offtopic
 
was heisst inzwischen? das ist afaik ein hardwareproblem
also muss erst ein neuer chip her
 
Der G80 wird das Problem wohl endlich lösen. Wobei das im Moment noch nicht wirklich tragisch ist bei den jetztigen Games.

mFg tAk
 
@RocketChef & BluebirdXT: Ihr vergesst, dass der RV570 zwar "nur" 12 Pixelpipes (der RV530 -1600XT hatte 4 und war in einigen shaderlastigen Bereichen trotzdem einer 7600GT überlegen und in einigen wenigen Spielen gleichauf oder sogar ebenfalls überlegen) aber 36 Pixelshadereinheiten haben wird.

-Ausserdem weiss beim RV570 niemand die genauen Taktraten.-Da aber schon der RV53x (in 80nm) als Pro-Version mit 600/700 taktet (bei 128-Bei-Speicherinterface) wird der RV570 bestimmt noch was drauflegen (bei 256-Bit-Speicher und besserer Architektur)

Da die 7950 GT immer noch auf dem G71 basiert und mit gerade mal mit 550Mhz taktet ist das gerade im 3DMark06 ne gute Leistung.-V.a. Da jeder weiss, dass ATI bei den meisten Shaderoperationen NV um einiges überlegen ist, ist es eine gute Leistung von NV beim 3DMurks06 (sehr shaderlastig!!) über 150 Punkte mehr zu erziehlen.

Aber wie immer gilt: Richtige Benchmarks abwarten!
 
Zuletzt bearbeitet:
PoW3rUp schrieb:
Nein ehrlich gesagt nicht ganz gelesen, trotzdem gibt es, auch mit aktuellen Treibern, Texturflimmern. Es ist vielleicht gemildert und optimiert worden, immerhin ist das Problem ja bekannt, jedoch 100% beseitigt ist es immer noch nicht.
Sogar wenn man den High-Quality-Modus wählt ist die Qualität immer noch ein ganzes Stück schlechter als ATIs X1k Reihe.
Dies kann ich auch aus eigener Erfahrung bezeugen...

Gilt das auch für die neue 7950 GT? Die hat doch den G71-Chip und nicht den G70-Chip.
 

Ähnliche Themen

Zurück
Oben