NVidia Geforce 8800GTS oder ATI HD 2900 XT?

Ich hab heute meine 8800GTS bekommen - und hab die 2900XT liegen lassen. Ganz klarer Fall: da ich meinen Strom selber bezahlen muss (soll unter Erwachsenen vorkommen ;) ) kommt die neue ATI für mich nicht in Frage. Punkt.
 
Ich benutze mein Rechner eigentlich fast nur zum Spielen und Vista habe ich auch nicht vor demnächst du Inst. also bring mir DX10 nichts!

Ich muss einfach mal gucken wieviel Geld ich habe, aber irgendwie habe ich immer Nvidia Grafikkarten gehabt und will auch dabei bleiben!

Auf jedenfall schonmal danke für die Ganzen antworten!

MFG
 
@ Hawk0178

das die ATI Karte im Idle nicht spürbar mehr strom braucht ist dir klar oder?

3d find ich auch aktuell ne sauerei, aber das lässt sich noch ein wenig nach unten korrigieren.

Ich denke, dass das durch weiter verbesserte Treiber ein wenig realisierbar ist.

Siehe nVidia, fast 6 monate und sie haben es noch immer nicht geschafft einen 2d takt zu integrieren, ich bin echt enttäuscht.
 
FlagShip schrieb:
also erstmal frage ich mich, was die ganzen reviews da getestet haben, bei mir bricht die hd 2900xt kein bisschen ein...
FlagShip schrieb:
zu 90% hat sie die performance einer ultra und hängt die gtx bei allem ausser bei 3d murks und bei source engine games und bei cod 2 ab. da bricht sich komischerweise enorm ein.
Genau das ist ja das Problem. Die Karte läuft super, außer in 200.000 Spielen, auf die sie erst optimiert werden muss :rolleyes:
FlagShip schrieb:
Ich denke, dass das durch weiter verbesserte Treiber ein wenig realisierbar ist.

Siehe nVidia, fast 6 monate und sie haben es noch immer nicht geschafft einen 2d takt zu integrieren, ich bin echt enttäuscht.
Und was lernt man daraus? Niemals darauf vertrauen, dass ein Treiber Misstände behebt. Das kann funktionieren, muss aber nicht.
mfg
IRID1UM
 
Genau das dachte ich mir....Und der User hier ist auch der Beweis dafür! ;)

Die Karte hat richtig Power
 
Und was ist, wenn es dafür keine oder nur kaum bessere Treiber geben wird?
Ich weiß es natürlich nicht, was da noch machbar ist.
Aber in meinen Augen ist Fakt, das die Graka von ATI sehr spät kam und immer wieder verschoben wurde.
Einen gescheiten Treiber haben sie trotzdem nicht hinbekommen. Find ich schon etwas traurig.

Aber ich warte trotzdem noch, was da so passiert.
 
@FlagShip
Wie misst du denn die Performance? Und wie kommst du darauf das sie 90% der Ultra Leistung hat?
 
tzz Ich bin mir sicher das die ati bald mit besseren treiber minds!!. 8800 ultra niveau ereicht und für den preis ist die besser als die gts.


also wenn du ne gk brauchst die genug power hat nimm die ati,dauert nicht mehr lang dan ist sie ganz oben bei allen tests.
 
@ Blacktail, das hast du jetzt gesagt, nicht ich...

Es kann gut sein, das Sie noch auf Ultra Niveau kommt, da Sie sowieso mehr vorhandene roh power hat als die Ultra.

Muss aber nicht.

Ich denke, die ATI Karte wird ihre Vorteile in DX10 und bei hohen Filter Modis zeigen.

@rayne, du kannst doch bestimmt auch rechnen oder? zb game 1 ati 90fps g80 ultra 100fps

und was hat die ati karte dann? genau 90% der Ultra Leistung.

Und ich messe alles nach den fps in Games, ermittelt mit fps und rivatuner.

Ich denke dass das aussagekräftig genug ist.
 
treiber hin oder her, viel wird da nicht mehr passieren... grundlegende probleme in der chiparchitektur lassen sich nunmal nicht mit treibern in den griff bekommen.
 
naja alles ein für und wider.. die frage ist ob die ganzen karten für crisis usw. wirklich reichen.. Ultra bzw. GTX und die ATI 2900XT auch (da sie ja sooo viel DX10 Power hat).. aber ob die GTS reicht (vor allem die 320MB version) wird sich zeigen.. ich bezweifle es.. --> auf DX10 warten und vorerst ne 1950Pro oder sowas in der Art kaufen.. oder gebraucht was abstauben... und wenn DX10 da ist dann gibts vielleicht neue Grakas bessere Treiber ne 8900 bzw. 2950.. usw..
 
Falls ihr das noch nicht wisst, ihr könnt bei CB auf die Balken klicken und seht die unterschiede zum Rest.

die Radeon hat fast durchgehend 30% mehr Leistung als die GTS, wenn das nichts ist, dann frage ich mich, warum wir dann überhaupt upgraden^^
 
Es gibt doch bereits DX10 Benches der 2900XT und auch da ist sie genauso einzuordnen wie unter DX9. Ohne AA/AF Fix, mit AA/AF etwas unter GTS Niveau.

@Flagship
Die Mehrleistung aber nur, wenn AA/AF nicht aktiviert ist. Wenn AA/AF aktiviert werden, liegt sie 8% hinter der GTS. Das musste dann aber auch mal erwähnen und nicht einfach pauschal werte in den Raum werfen. Und jetzt die Frage, wer spielt mit solch einer Karte ohne AA/AF, wenn es das Spiel hergibt?
 
Zuletzt bearbeitet:
Ich sage nur abwarten....
Denn laut diesem Link hier: http://www.pcgameshardware.de/?article_id=602014 plant nVidia schon das nächste.

Also erwartet uns ab spätestens Weihnachten die 8900er oder sogar schon die 9er Serie von nVidia !!!
 
Deshalb kann man pauschal sagen das sie 90% der Leistung hat? *hust* naja ich spar mir meinen Kommentar
Wie AvenDexx schon gesagt hat, ohne Quali vll, mit siehts wieder anders aus.....
Komisch, kann mich noch erinnern das das eigentlich immer nV war die bei Quali einbrach :D
 
Mit den neuen Treibern von ATi sieht es in einigen Games schon besser aus, was den Einbruch unter AA/AF betrifft, doch muss man da auch fairerweise sagen, dass das eingesetzte AA einen leichten Blur-Filter nutzt, welcher die Performance schont, aber nunmal kein richtiges AA ist, auch wenn es gut aussehen soll, laut CB.
 
ähm, ihr kennt euch mit physik aus oder?

wie kann eine Karte mit mehr rohleistung und 20% breiterem Speicherinterface so stark einbrechen?

Na?

Nur der Treiber machts. Wenn AMD das im griff hat, wird die Karte kaum noch einbrechen, bis gar keine Leistung bei AA/AAF verlieren.

Dafür lege ich meine Hand ins Feuer.

Ich weis noch wie ATI bei der X1900 mehr als 20% performance rausgeholt hat bis zum g80 release.

Also stellt euch mal nicht quer. Ich sage nicht, das es die überkarte ist, vorallem nach 6 monaten verspätung nicht.

Aber zu dem Preis gibt es nichts besseres. die GTS ist KLAR die schlechtere Karte.

weniger Performance, weniger speicherbreite, weniger DX10 Power.

klar, sie hat weniger leistungverbrauch(watt) und kostet 20-30€ weniger für ca 30% weniger grafikleistung..

O__o ich elender Fanboy, ich HABE beide Karten da, glaubts doch einfach :P
 
Und wieso hat nVidia den Einbruch unter AA/AF bei ihren Vergangenen Graka-Generationen nie mit einem Treiber in den Griff bekommen?

Und wo hat ATi 20% aus der X1900 rausgeholt? Mit welchem Treiber bitte?
 
Ja ich kenne mich mit Physik aus...

Bei der Rohleistung muss man differenzieren zwischen Shader,ROP und TMU Leistung. Die ATI-Karte hat eine hohe Shader Leistung aber dafür eine geringere ROP Leistung und eine deutlich geringere TMU Leistung. Das ist Hardware bedingt.
Wegen der geringeren ROP und TMU Leistung bricht sie mit AA/AF so verhältnissmäßig stark ein.
 
Zurück
Oben