Test Test: nVidia GeForce 8800 GTX

das bild im 1. post sagt garnichts aus. der vergleich ist nicht fair, weil die blickwinkel unterschiedlich sind.

11628543947eYeHcawZU_14_5_l.png
 
@Mepmashine

Brille?

Guck mal ein bischen genauer hin, dann wirst du merken dass die Blickwinkel absolut gleich sind ;)
 
@ Rildo

Trifft den Nagel auf den Kopf - Nur wem erzählst du das...wenn gleich alle hurra schreien und sich wie die Hühner auf das Korn stürtzen...
 
Naja, auf dem Screenshot der 8800er kommt eindeutig auch noch AA zum Einsatz, bei der ATi nicht. OK, dies hat keinerlei Einfluß auf die anisotropische Filterung, trübt aber den Gesamteindruck der ATi.:D
 
@Wolfenstein 2k2

Das ist ja das Problem. Denn das was anisotropisch gefiltert wird muss ja auch geglättet werden durch AA und da sieht man auch wie schlecht AA+AF bei der Radeon zusammen arbeiten. Oder der AF glättet sich bei dem G80 selbst, was auch erklären würde warum das Bild nicht so stark flimmert wie beim R580.
 
Wolfenstein 2k2 schrieb:
Aber irgendwie sieht die Nase in der Demo ein wenig "komisch" aus.

Was will man da schon machen?
Die Alte hat wirklich so einen Zinken. Scheint sehr hochnäsig zu sein, die Dame :D
Ausserdem sieht sie sehr künstlich aus - auf allen Bildern.

Ich hätte aber lieber mal Angie (Angele Merkel) als Techdemo gehabt :freak:
 
Mepmashine schrieb:
das bild im 1. post sagt garnichts aus. der Vergleich ist nicht fair, weil die Blickwinkel unterschiedlich sind.

Sehe ich genau so. Beim Nvida Bild, wird mehr Frontal auf diese "Wand" geschaut. Bei Ati wird schiefer drauf geschaut...

Da sind die Vergleiche im Test von CB besser!

/
Edit

@ Master_Chief_87
Zwei gegen einen! Wer sieht hier schlecht? :-P
Kauf du dir mal eine Winkel unabhängige Brille, wenn du den Winkelunterschied nicht siehst. ich brauch keine :-P
 
Zuletzt bearbeitet: (Kommentar zum Kommentar hinzugefügt :-) (siehe Edit))
Master_Chief_87 schrieb:
Ich hätte aber lieber mal Angie (Angele Merkel) als Techdemo gehabt :freak:

Das Resultat wäre gewesen: dramatische Umsatzeinbrücke bei NVidia :lol:
 
Master_Chief_87 schrieb:
@Wolfenstein 2k2

Das ist ja das Problem. Denn das was anisotropisch gefiltert wird muss ja auch geglättet werden durch AA und da sieht man auch wie schlecht AA+AF bei der Radeon zusammen arbeiten. Oder der AF glättet sich bei dem G80 selbst, was auch erklären würde warum das Bild nicht so stark flimmert wie beim R580.

Ähm, verstehe ich nicht so ganz, d.h. die Bereiche, die ich markiert habe werden beim G80 alleinig durch den AF mitgeglättet?

Bzw. kann der G80 sowas wie adaptives AA bei ATi, so dass die Maschendrahtzäune etc. auch geglättet werden?
 

Anhänge

  • 11628543947eYeHcawZU_14_5_l.jpg
    11628543947eYeHcawZU_14_5_l.jpg
    151 KB · Aufrufe: 539
Zuletzt bearbeitet:
find die leistungssteigerung im vergleich zur gx2 eher mau .... umstieg lohnt net.... naja denke gegen april/mai werden die ersten guten dx10 karten kommen , da die 8800gtx bei crysis full details scho gut schwitzen wird denke ich (oder mir da ziemlich sicher bin)
 
@Wolfenstein 2k2

Jepp, so in etwa könnte man das sagen.
Vielleicht ists ja aber auch nicht so, kann ja auch die angesprochene Möglichkeit sein dass AF+AA sich auf G80 viel besser ergänzen. Desweiteren wäre auch noch interessant zu wissen mit welcher Auflösung dieses Bild zu Stande kam und ob da noch hineingezoomt wurde.
Fakt ist aufm G80 sieht das Bild harmonischer aus, was ja auch im Test von CB bewiesen und beschrieben wird.
 
OK, von einer 7950 => 8800 GTS / GTX ist ein Umstieg wohl nicht allzu sinnvoll, es sei denn, man ist von der Lautstärke der 7950er genervt und möchte eh immer das neueste haben. Für diejenigen, die aber keine 7950GX2 haben, lohnt es sich aber u.U. schon. Hatte schon überlegt, von einer X1800XT auf eine X1950XTX umzusteigen, der Vorsprung war es mir aber nicht wert, und ich wollte auf den G80 warten. Jetzt, wo der G80 da ist, sieht es wieder ein wenig anders aus, denn der ist teilweise (mehr als) doppelt so schnell wie meine X1800XT, z.B. bei F.E.A.R., Oblivion etc. Nur die Preise müssen noch ein wenig fallen bzw. die GTX erst einmal funktionierend erhältlich sein. Wirklich schade, dass der Start jetzt ein wenig getrübt wurde durch den Rückruf.
 
Ach Jungens ihr vergleicht hier Äpfel mit Birnen. So lange der R600 nicht das Licht der Welt erblickt, kann man die 8800GTX mit keiner Grafikkarten vergleichen. Das ist so und das wird sich jetzt in der nächsten Zeit auch nicht ändern. Ich hoffe durch die Übernahme ATI's von AMD wird der Stromverbrauch ein bisschen gesenkt. Wenn jetzt noch die BQ des R600's an die BQ des G80 aufschliessen kann, dann kann man den G80 einpacken (die Leistung muss natürlich auch stimmen).
 
gibt im moment einfach keinen sinn fuer die karte....... fuer aktuelle spiele reicht die alte generation und wenn die ersten richtigen dx10 spiele da sind is die 8800gtx auch wieder auslaufmodell ...
 
Zuletzt bearbeitet:
xp_home schrieb:
Sehe ich genau so. Beim Nvida Bild, wird mehr Frontal auf diese "Wand" geschaut. Bei Ati wird schiefer drauf geschaut...

Da sind die Vergleiche im Test von CB besser!

/
Edit

@ Master_Chief_87
Zwei gegen einen! Wer sieht hier schlecht? :-P
Kauf du dir mal eine Winkel unabhängige Brille, wenn du den Winkelunterschied nicht siehst. ich brauch keine :-P

sorry aber Master Chief hat recht.
Es ist 100% genau der selbe blickwinkel.
Durch die schrägen linien ergibt sich aber eine optische täuschung die es so aussehen lässt als wäre der winkel auf dem linken bild noch deutlich flacher. Wer es nicht glaubt soll eben ein linel oder sonstwas an den moni halten. Die winkel sind identisch und die längen ebenso. Wenn man das bild mal eben mit photoshop in der mitte trennt und die häften vertauscht wird es wieder so sein dass die linke hälfte scheinbar einen flacheren blickwinkel zeigt.


@ topic:
Gut dass man das mal ausdrücklich angibt dass der gesamte stromverbrauch des systems gemessen wurde. Könnte aber man nicht auch zusätzlich mal messen wie viel davon nur die graka schluckt?
Und da das 8800gtx system um die 300W schluckt kann man dann sagen dass ein gutes 330W NT (seasonic / bequiet) außreichen würde für einen solchen pc? oder kommt es kurzzeitig auch zu einem höheren stromverbrauch? Oder kommt das ganze wegen der aufteilung auf die verschiedenen Leitungen eh nicht hin?

wasdenn schrieb:
Ach Jungens ihr vergleicht hier Äpfel mit Birnen. So lange der R600 nicht das Licht der Welt erblickt, kann man die 8800GTX mit keiner Grafikkarten vergleichen. ... Wenn jetzt noch die BQ des R600's an die BQ des G80 aufschliessen kann, dann kann man den G80 einpacken (die Leistung muss natürlich auch stimmen).

Lol quasi über das Nvidia fanboy gelaber meckern und im anschluss gleich die Ati fanboy parolen schwingen :/
Wer aus dem Vergleich g80 vs aktuelle atis eine nvidia überlegenheit herbeiredet hat genauso wenig ahnung wie jmd der seinen imaginären r600 jetzt schon als sieger gegen den g80 sieht. Was wirklich besser ist sehen wir dann wenn beide auf dem markt verfügbar sind.
 
Zuletzt bearbeitet:
im grafikkartenmarkt passiert schon seid 10 jahren alle halbe jahr dasselbe .... und die leute werden noch genauso histerisch wie beim "ersten mal" herrlich ,..... :)
 
@NoD.sunrise

Danke für die Unterstützung :)
Tja, cool, ich sehe besser als 2 Mann zusammen, naja, ich hab auch ein seltsam hohen 3dimensionales Verständnis.

Also mit einem 300Watt Netzteil wird das nix. Denn du brauchst für diese Grafikkarte auf der 12 Volt Leitung 30A, dies fliesst dann schon mal in die Gesamtpower eines NTs mit 360Watt ein, denn kommt ja noch die Stromstärke der 5V und 3V Leitungen dazu. Denn alle diese Leitungen sind getrennt, also die 12V Leitung kann zBsp. sich keine 30Watt von der 5V Leitung "borgen". Und bei der 8800GTX braucht man ja 2 verschiedene Leitungen mit jeweils mind. 15A.
 
Zurück
Oben