X800Pro/XT oder 6800GT/Ultra ? die Qual der Wahl!

und wo bleibt bei dir dir ultra?
 
@Wintermute
Dann ist die Entscheidung doch einfach:
Kohle da: x800XT
Kohle weniger da: 6800GT/x800pro je nach Preis
Kohle noch weniger da: 9800PRO
Gar keine Kohle da: Sparen
Hehe, der ist gut :D

@I-T
Abgesehen davon schalte ich sowieso JEGLICHE Optmimierung durch ATI Tray Tools aus,d.h. man hat endlich FULL TRILINEAR bei AF.
Wieviel Verlust an Leistung hast du nach dem ausschalten der Optimierung denn festgestellt? :volllol:
 
Zuletzt bearbeitet:
Snipermaik schrieb:
Wieviel Verlust an Leistung hast du nach dem ausschalten der Optimierung denn festgestellt? :volllol:

Da das Tool ebenfalls eine Optmierung benutzt (die aber KEINEN Qualitätsverlust zur Folge hat!) nicht sonderlich viel:

Settings:FC PCGH_VGA Demo

FC alles so hoch wie möglich ,1280x1024,4xAA+16xAF,AF Quality mit full Trilinear,Trilinear Optimierung an,AF Optimierung an : 47 FPS

FC alles so hoch wie möglich ,1280x1024,4xAA+16xAF,AF Quality ohne full Trilinear,Trilinear Optimierung aus,AF Optimierung aus : 50 FPS

Was das Tool macht kann man hier sehn:

http://www.thefallenangels.info/atitray/viewtopic.php?t=29

Der Unterschied ist mit bloßem Auge erkennbar.
Die Qualität steigt deutlich,der Leistungsverlust ist gering.

Endlich werden ALLE Texturebenen voll gefiltert,diese Sauerei betreiben leider ATI & NV.
Jegliche Optimierung müßte ausschaltbar sein,zum Glück gibts das Tool.

;)
 
Snipermaik schrieb:
@Picolo


Wenn ich nun aber nicht weiß was ich kaufen soll bzw. möchte ist es eben nicht unnötig.

mag schon richtig sein - nur wie sehr hilft er mir mich für eine karte zu entscheiden wenn hier 90% aller leute nur herumlametieren - bla bla bla das, bla bla bla das - weist du was ich meine?

viele magazine haben ein schönes fazit: die karten der neuen generationen nehmen sich nicht, sujektiv sollte man sich für den hersteller entscheiden die einem persönlich lieber sind (vor und nachteile nach eigener meinung eingerechnet - ich muss ja wissen was ich will)

fg
 
I-T schrieb:

vergiss xbitlabs die haben schon gesagt das eine x800 xt 10 % schneller is als ne ultra beim launch von den karten


ich bin zwar kein fan von THG ( habe jetzt per google das erste ergebnis meiner suche angeklickt) aber hier sieht man wieder den gleichen bench aber ein klarer sieg der ultra
http://graphics.tomshardware.com/graphic/20040705/farcry-05.html

wie du siehst die sie x800 xt da plötzlich schlechter als ne ultra, ja nun wer hat nun recht
 
Accuface schrieb:
vergiss xbitlabs die haben schon gesagt das eine x800 xt 10 % schneller is als ne ultra beim launch von den karten
ich bin zwar kein fan von THG ( habe jetzt per google das erste ergebnis meiner suche angeklickt) aber hier sieht man wieder den gleichen bench aber ein klarer sieg der ultra
http://graphics.tomshardware.com/graphic/20040705/farcry-05.html
wie du siehst die sie x800 xt da plötzlich schlechter als ne ultra, ja nun wer hat nun recht

Eine XT PE ist doch auch schneller,lediglich die Ultra Extreme war wieder gleichauf oder vorne.

Ich persönlich bin kein Fan von THG,deshalb warte ich lieber auf PCGH,deren Ergebnisse konnte ich bisher bei meinen eigenen Karten immer nachvollziehen.

Ich glaube nämlich nicht das eine Ultra mir nichts dir nichts durch PS3 plötzlich drastisch vorne liegen soll,zumal sich einige Benchs auf anderen Seiten echt wiedersprechen (GF plötzlich im standard mode langsamer als vorher und im quality 20% schneller).

Man müßte beide Karten selber haben...

:D
 
Ich finde die sollten ihre Tests auch immer zweigleisig fahren, einmal auf AMD und dann auf einer Intel Plattform. :watt:
Ich bin ja vor kurzem von einem AthlonXP 2600+ @(2600Mhz)) auf einen Intel Northwood 3,0C @(3900Mhz) umgestiegen, dabei habe ich in AAO so gut wie keinen :heul: und in FarCry dagegen ca. 15%-20% Leistungszuwachs, :daumen: beide Games in 4x AA 4x AF getestet.
Daran kann man doch sehen wie sich die Leistung der einzelnen Game auf den verschiedenen Systemen verhält.
Wobei die CPU´s annähernd die gleiche Games Power haben sollten.
Und weder bei Toms-Hardware noch bei X-bit labs habe ich die Test-Configs gesehen. :heuldoch:
Daher vermute ich, dass einmal auf Intel und einmal auf AMD getestet wurde.
 
I-T schrieb:
Ich glaube nämlich nicht das eine Ultra mir nichts dir nichts durch PS3 plötzlich drastisch vorne liegen soll,zumal sich einige Benchs auf anderen Seiten echt wiedersprechen (GF plötzlich im standard mode langsamer als vorher und im quality 20% schneller).

ich glaube das speziell in far cry auch nicht wirklich - ich denke speziell in far cry hat das mit einem kleinen logo auf der hinterseite der dvd hülle unten zu tun - das is das nvidia "it's meant to be play" logo - denke die haben eher auf die internen chiprutinen des nv 40 angepasst und so wirklich das große speedplus rausgeholt, der ps 3.0 trägt da noch seinen beitrag dazu.

und ja beide karten währen ein hit, dann kann ich mich über jede firma aufregen obwohl ich beide in rechner hätte. ;)

fg
 
deine minus Punkte stimmen überhaupt nicht von der GT

du meinst viell. ne. schrott point of view oder ähnliches.

hier dein Auszug:

- langsamer Speicher bei allen Modellen
- geringe Taktraten der GPU
- 1 Stromanschluss evtl. zu wenig für Übertaktung

stimmt alles nicht vorallem nicht mit Gainward ( SAUTeuer aber The BEST ).

Kumpel hat ne Gainward 6800 GT Golden Sample und die ist einfach nur

GENIAL !

Speicher 1,6 NS übertaktet 1240 ( Über der Ultra / Ultra 1100 Mhz ) Standart 1000 Mhz

Taktraten GPU: 425 ( Über der Ultra / Ultra 400 Mhz ) Standart 350 Mhz

nun hätte sich das noch mit dem einem Stromanschluss jetzt auch geklärt

und das alles ohne Fehler und läuft und läuft und läuft es geht sicherlich bestimmt noch mehr aber wozu ?!

--------

Ich hatte vor mir ne Ati zu hollen, nun aber habe ich meine Meinung geändert und kaufe mir wieder NVIDIA (hatte schon Ati u. Nvidia) und nur von GAINWARD

Nvidia neueste u. zukunftssichere Technik, PShad. 3.0 , BildQuali 1A und und und

NVIDIA THE BEST
 
Zuletzt bearbeitet:
naja jedes gegenstück hat den selben Speicher..also GT und x800 pro 2.0 ns samsung speicher und die großen 1.6ns

btw übertakten...Gonzo71 hat auch eine PNY 6800 GT und hat sie auf GPU 350@402MHz
RAM 500@595MHz=1190MHz getaktet :-)
 
Zuletzt bearbeitet:
Snipermaik schrieb:
Ich finde die sollten ihre Tests auch immer zweigleisig fahren, einmal auf AMD und dann auf einer Intel Plattform.

Da hast du Recht,das hat die PCGH vor einigen Ausgaben mal schön getestet und festgestellt das eine ATI besser zu AMD und eine NV besser zu Intel Systemen passt.

Vermutlich nehmen sich die beiden Karten einen Dreck,die Unterschiede dürften wenn überhaupt vorhanden SEHR gering sein.

Und da er den Kühler eh runterreisst,spielt der Lautstärke auch keine Rolle.

Ebenfalls bedeutungslos sind irgendwelche Optmimierungen oder Tricks des Herstellers,da ist keiner besser als der andere.

Also kann er Preis,Ausstattung und Verfügbarkeit gegeneinander abwägen und sich die zulegen die er als erstes in die Finger bekommt.

;)

@lol55

Deine Ansichten gegenüber Herstellern wie POINT OF VIEW sind völlig veraltet,das ist genauso wie die Probleme mit ATI Karten schon seit Jahren vorbei.

Auch POINT OF VIEW fertigt zu 100% (vom Kühler mal abgesehen) nach NV Design,weil eigene Entwicklungen sehr unrentabel geworden sind.

Das zugegenermaßen sehr hohe OC Potenzial der GAINWARD Karten (hab ne TI 4400 von Gainward) bezahlst du durch den erheblich höheren Preis mit,es nimmt sich also wenig.

Deine Aussage das die Bildqualität 1A ist ,ist falsch.Kannst gerne den 2D Vergleich mit einer ATI machen,seit der GF4 geht die Quali immer weiter zurück.
Bei ATI geht die Signal Qualität seit der 9700 Pro auch wieder nach unten.

Zukunftssicher ist keine Technik,weder 3dc noch PS3.Die Frage ist ob solche Techniken überhaupt je in großem Stil eingestzt werden.
Das hat man uns bei DX8+DX9 auch schon versprochen,oder bei Truform.

:rolleyes:
 
Zuletzt bearbeitet:
Wusstet ihr eigentlich das ne x800XT lauter ist als ne 6800 Ultra?

die mussten dem lüfter mehr spannung geben weil die karten zu heiß wurden

also die Serienmodelle haben 3,6 Sone / 46,5 dB(A) X800XT im Referenz Design
3,2 Sone / 43,4 dB(A) 6800 Ultra im Referenz Design

Steht alles in der aktuellen PCGH
 
@BvB123 :watt: ati lauter als nvidia?? mussten den lüfter lauter machen? also das kapier ich jetzt nicht.weckt mich mal jemand :stock: es hieß doch immer das die kühlung reicht?!
also entwerder ist das ein witz oder die news des tages...ati lauter also nvidia(wann war das das letzte mal so?)
 
BvB123 schrieb:
Wusstet ihr eigentlich das ne x800XT lauter ist als ne 6800 Ultra?
die mussten dem lüfter mehr spannung geben weil die karten zu heiß wurden
also die Serienmodelle haben 3,6 Sone / 46,5 dB(A) X800XT im Referenz Design
3,2 Sone / 43,4 dB(A) 6800 Ultra im Referenz Design
Steht alles in der aktuellen PCGH

Hab ich noch nicht gelesen aber:

1.MIR sind beide Karten VIEL zu laut.
2.Ist zwischen 3.2 + 3.6 Sone bestimmt kein Unterschied hörbar,so wie zwischen X800Pro mit bis zu 1.8 Sone und 6800 GT mit bis zu 5 Sone.Wir reden hier von 3.1 DB,wie soll man die raushören?
3.Ist auch der Klang der der Lüfters entscheidend.Ein lauterer Lüfter kann weniger nerven wenn sein Klangprofil angenehmer ist,z.B. weniger hohe Töne als der andere.
Niedefrequente Geräusche sind nicht so unangenehm wie hochfrequente.
Deswegen sind die Tests vom 3D Center auch so schön,DIE bewerten das mit.

:rolleyes:

Das NV mal leiser ist als ATI ist doch keine Sensation,AMDs sind ja inzwischen auch kühler als Intels.

;)

P.S: Jetzt verzichte ich gerne auf die Mehrleistung von XT und Ultra.

:cool_alt:
 
Wird sich nicht ein Großteil sowieso für n paar € einen anderen VGA Silencer kaufen?

Also ich auf jeden Fall , da mir geringe Lautstärke sehr sehr wichtig ist.
 

Ähnliche Themen

Zurück
Oben