Bericht Vorschau: ATi Radeon X800 Pro und X800 XT

Status
Für weitere Antworten geschlossen.
"Wer lesen kann ist klar im Vorteil"

Guck dir meinen Post nochma richtig an, dann verstehste ihn vielleicht! Ich meinte doch die ATi Karte! ;) Wie gesagt, den Fön von nVidia kann man kaum überbieten. :D
 
Der Fön saß auf der FX5800U und 95% der Zeit ist er genauso leise wie die Ultimate Editions von Sapphire. Nur eben beim Zocken nicht.

Der nV35/38 war schon deutlich besser, zumindest gab es zwei Stufen und die hohe Stufe wurde ausser beim Booten m.W. nie benutzt.

Der nV40 ist nochmal ne Ecke ruhiger. Leiser als die R9800p und 9700p, die ich als Testsamples mit Referenzkühlung da habe.
Einen Vergleich mit dem X800 kann ich aber nicht bieten.
 
hm, cenmocay, du hast schon gemerkt, dass das eben kein diss gegen ati war?! :rolleyes:
und wer es nicht nachlesen will:
laut 3dcenter ist der nv40 schon ziemlich leise, x800 pro aber faktisch nicht hörbar bei laufenden gehäuselüftern
 
b1ackbird schrieb:
hm, cenmocay, du hast schon gemerkt, dass das eben kein diss gegen ati war?! :rolleyes:
und wer es nicht nachlesen will:
laut 3dcenter ist der nv40 schon ziemlich leise, x800 pro aber faktisch nicht hörbar bei laufenden gehäuselüftern

Bei den meisten war die NV40 nicht leise (z.B chip.de),wenns nur die Lautstärke wäre aber es gibt noch die anderen Faktoren.

"Wer lesen kann ist klar im Vorteil"

Dann würd ich an deiner Stelle die Reviews mal lesen
 
Der Ati Chip ist auf jeden fall besser als der von Nvidia. Sieht mal die Transistoren Zahl und den Stromverbrauch, dass ist ja schon ein enormes unterschied. Klarer Sieg für die Kanadier!

!!! Ati RULZZ !!!
 
Tja und alle diese bench zeigen das NV leider immer unter M$ leidet...

Woebi ich nicht verteh wieso nv nicht auf die 24 bit genuigkeit zurueckgreift so wie das ati macht .... denn durch diese 32 wert fallen die nv karten ja durch directX so ab............... faziet M$ is mal wieder schuld ... lol das is so unglaublich apple bringt ein ueberarbeitetes OS mit vielen geilen neuen moeglichkeiten jedes jahr und M$ ist zu doff um directX zu ueberarbeiten bzw brauchen dafuer jahre.......
 
die nächsten Beiträge in denen der nVidia vs. ATI-Kampf ohne Rücksicht auf den Thread-Titel weiter ausgefochten wird, werden kommentarlos gelöscht.

Wenn Ihr Eure "ATI/nVidia rulzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzz/suxxxxxxxxxxxxxxxxxxxxxxxxxxxxx" Comments loslassen wollt macht einen Thread nur zu diesem Zweck auf und artikuliert Euch bitte anständig :)

Danke für Euer Verständnis.

Zur Erinnerung: Es ging hier um die ATI Radeon X800 Pro & XT ^^
 
Zuletzt bearbeitet:
Schöne Sache.

Mal sehen wie sich die x800 Pro in den Markt einordnet. Falls sie so ein Schnäppchen wie damals die 5900 XT werden sollte, verkaufe ich meine und hol mir diese Grafikkarte. Das gute dabei ist das ich nichtmal minus machen muss :)

Die x800 XT ist zwar auch sehr schön, aber zu teuer. Obwohl sie mich doch sehr reizt. Aber ich denke die Leistung der x800 Pro reicht locker aus, da sie ja sogar eine GeForce 6800 Ultra in einigen Benchmarks besiegen kann. Durch ein bissel Übertaktung (was sicherlich nicht nötig wäre...) gibts da bestimmt noch mehr rauszuholen.

Mal schauen wie die Startpreise ausfallen. Ich hoffe nicht zu hoch.
 
reven schrieb:
Tja und alle diese bench zeigen das NV leider immer unter M$ leidet...

Woebi ich nicht verteh wieso nv nicht auf die 24 bit genuigkeit zurueckgreift so wie das ati macht .... denn durch diese 32 wert fallen die nv karten ja durch directX so ab............... faziet M$ is mal wieder schuld ... lol das is so unglaublich apple bringt ein ueberarbeitetes OS mit vielen geilen neuen moeglichkeiten jedes jahr und M$ ist zu doff um directX zu ueberarbeiten bzw brauchen dafuer jahre.......

aha, mal wieder jemand der meint 32 bit wäre langsamer als 24bit...
Das stimmt aber garnicht :)
32Bit sind zwar langsamer als 16Bit (was die nvidia chips auch können), aber 24Bit ist kein bißchen schneller als 32Bit...
32Bit haben den Vorteil (theoretisch wenigstens) eine höhere Präzision zu liefern, brauchen dafür aber mehr Platz auf dem Chip (=mehr Transistoren -> mehr Kosten) - und wegen diesen Kosten hat Ati eben nur auf 24Bit gesetzt...
24 Bit sind die Mindestanforderung für DX9, Ati erfüllt diese und nvidia mit 32Bit auch - für Pixelshader 3 benötigt man 32Bit, deshalb muss nvidia hier weiterhin 32 Bit verwenden...

Den Grund der üblen Pixelshader Perfomance der GF FX Karten kannst du zu zum Großteil bei nvidia suchen - die GF-FX Pixelshader waren einfach nur 16Bit tauglich - mit der GF 6800 Ultra hat sich das ja erfreulicherweiße geändert, die hat eine ähnlich gute Pixelshader-Perfomance wie die Ati-Karten...

greetz shaft
 
Meint ihr die Bit Zahl der Farben oder welche diskutiert ihr?

Die Bit-Zahl der Farben auf dem Desktop oder in Spielen hat etwas mit der Prozessor- und Programm-Architektur zu tun!

Windows läuft zur Zeit mit 32 Bit und einen Programmcode auf 16 Bit oder 32 Bit darzustellen ist viel besser als mit einer gebrochenen Zahl, wie 24 Bit zu arbeiten, wo man umständlich umrechnen muss.

32 Bit ist ja 1:1, 16 Bit wäre 2:1, aber 24 Bit ist blöderweise 1,33 :1 und da muss man anfangen richtig zu rechnen :-(

Deshalb wird 24 Bit auch langsamer und so kann man auch verstehen, dass die Programmieren von 3dfx 24 Bit abgelassen hat (natürlich auch durch das Ende des Unternehmens) und das leichter zu programmierende 32 Bit und 16 Bit gelassen hat.
 
The_Jackal schrieb:
Meint ihr die Bit Zahl der Farben oder welche diskutiert ihr?

Die Bit-Zahl der Farben auf dem Desktop oder in Spielen hat etwas mit der Prozessor- und Programm-Architektur zu tun!

Windows läuft zur Zeit mit 32 Bit und einen Programmcode auf 16 Bit oder 32 Bit darzustellen ist viel besser als mit einer gebrochenen Zahl, wie 24 Bit zu arbeiten, wo man umständlich umrechnen muss.

32 Bit ist ja 1:1, 16 Bit wäre 2:1, aber 24 Bit ist blöderweise 1,33 :1 und da muss man anfangen richtig zu rechnen :-(

Deshalb wird 24 Bit auch langsamer und so kann man auch verstehen, dass die Programmieren von 3dfx 24 Bit abgelassen hat (natürlich auch durch das Ende des Unternehmens) und das leichter zu programmierende 32 Bit und 16 Bit gelassen hat.

wir haben über die Farbpräzission der Pixelshader gesprochen ;)
 
also es geht in der Tat um das Datenvolumen der Bildcshirmauflösung und demnach auch der hardwareseitigen Prozeduren und Funktionen von Grafikchips.

Was das jetzt allerdings mit dem von Dir angesprochenen Windows zu tun hat ist mir schleierhaft - es geht (momentan :D) nicht um Betriebssysteme.
 
Mal ne Fragen zu den 9800xt Karten.

Ist irgend etwas bekannt ob nach dem Erscheinen der X800 Karten die 9800xt im Preis fallen werden?

Ich meine werden die 9800xt Karten dann so ca. das kosten was die 9800pro Karten zur Zeit kosten, oder war das bei der 9800pro nur ein Zufall das diese so stark im Preis gefallen sind?
 
tom77 schrieb:
Mal ne Fragen zu den 9800xt Karten.

Ist irgend etwas bekannt ob nach dem Erscheinen der X800 Karten die 9800xt im Preis fallen werden?

Ich meine werden die 9800xt Karten dann so ca. das kosten was die 9800pro Karten zur Zeit kosten, oder war das bei der 9800pro nur ein Zufall das diese so stark im Preis gefallen sind?

ich denke die 9800xt werden aus recht schnell aus dem programm fallen...
 
Shagrath schrieb:
die nächsten Beiträge in denen der nVidia vs. ATI-Kampf ohne Rücksicht auf den Thread-Titel weiter ausgefochten wird, werden kommentarlos gelöscht.

Wenn Ihr Eure "ATI/nVidia rulzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzz/suxxxxxxxxxxxxxxxxxxxxxxxxxxxxx" Comments loslassen wollt macht einen Thread nur zu diesem Zweck auf und artikuliert Euch bitte anständig :)

Danke für Euer Verständnis.

Zur Erinnerung: Es ging hier um die ATI Radeon X800 Pro & XT ^^


ich hatte mal so einen thread auf gemacht hab dafür ne menge karma verloren ... und dan wurde er auch noch gelösch :rolleyes: ;)

aber egal ...

hab grade den test von THG durch gelesen ! ATi hatt wirklich tolle arbeit geleistet ! dies mal kommts wirklich auf den preis an ! ( oder auf PS 3.0 und video encoding von NV ) jenachdem muss man sich für eine karte entscheiden !

was mich stützig macht ist das NV mit den neuen treibern die bild qwalität, in farcry, nicht verbesser hat ! hoffe das wird mit dem neuen patch zu dem spiel wieder wett gemacht !
 
Wieder einmal hat ATI den schnellsten Chip hergestellt.Denn selbst die 6800 ultra Extreme Edition kann nicht gegen die X800XT ankommen.Auch mit Features wie 3Dc und temporales AA hat ATI Effekte im Gebäck die sehr interessant sind.
Echte PS3.0 Spiele wird es wohl erst nächstes Jahr geben.Bis dahin wird dieser Effekt auf 6800er Karten nahezu brach liegen.Wenn es dann Games gibt die PS3.0 unterstützen,gibt es schon die nächste Grakageneration,die diesen Effekt noch schneller abarbeiten kann.Entscheidend ist nun mal die Performance und da hat sich ATI mal wieder selbst übertroffen.
Nur ist der X800pro nicht besonders gut gelungen und wird gegen den bestimmt billigeren 6800GT nicht ankommen können.Denn der GT ist der Ultra sehr ähnlich,sodas es ein Leichtes ist diesen auf ultraniveau zu tackten,vielleicht sogar auf Ultra Extreme Edition-Niveau.(NV-Karten sind ja sehr übertakterfreudig)
Der X800pro kann dadurch ins Hintertreffen geraten,da er manchmal sogar langsamer als der 6800ultra ist.
Mit nur 12Pipelines ist es nicht so einfach,wenn sogar unmöglich,aus einer pro eine XT zu machen.
Es muß sich ATI also etwas einfallen lassen und einen Chip herausbringen der dem XT am ähnlichsten ist,sonst verliert ATI viele Marktanteile an NV.Der umsatzstärkste Markt ist nun mal der Mainstreambereich.Die meisten User werden sich dann wohl eher eine GT für vielleicht 300-350€ kaufen und diese dann zur ultra overclocken und sparen damit noch richtig Kohle.
Enthusiasten hingegen werden wohl den X800XT bevorzugen.
 
Wie man gesehen hat, macht NV sehr gute Arbeit, denn der Mainstream Bereich, der so wichtig ist, gehört NV.

Ich beziehe mich da auf diese News von CB: https://www.computerbase.de/2004-05/marktanteile-der-grafikchiphersteller/

bzw. TweakPC: http://www.tweakpc.de/mehr.php?news_id=5861

Mit der FX 5900 XT hat NV große Marktanteile des Mainstreams zurückgewonnen und jetzt wird die XT wieder verschwinden und man muss zur 5700 Ultra greifen.

Genauso wie Steel schrieb wird es wohl mit der Geforce 6 laufen. Die durch DDR-II und III sehr übertaktungsfreudigen Geforce Karten werden beim Mainstream User sehr beliebt sein und die GT wohl die Geforce 6 Variante der 5900 XT werden, die für NV die Marktanteile sichert und erobert ( ich glaube, ich spiele zu viel Comand & Conquer ;) ).

Für ATI wird es dann wieder schwierig, denn Karten, wie die 9600 XT oder 9800 SE sind nicht der Bringer. Wenn sich ATI von NV Anteile zurückholen will, dann sollten sie sehr auf eine gute Mainstream Karte setzen, denn der Erfolg der High-End-Karten färbt immer auf die Mainstream Karte ab und die User kaufen gerne von ATI, wenn die die Krone der Leistung tragen.

NV hat aber auch sehr viele Marktanteile durch die onboard VGA des nforce gemacht und wenn ATI da mitmischen will, dann sollten sie sich mehr auf die 9100 IGP konzentrieren. Der nforce 3 150 / 250 wird bestimmt eine tragende Rolle für den Athlon 64 übernehmen und VIA übernimmt die zweite Säule. Für ATI ist da zur Zeit kein Platz :(
Wenn sie mehr Marktanteile wollen, dann sollten sie einen Chipsatz wie den nforce bauen.
 
Ja, da hast du verdammt Recht! Habe auch letztens gelesen, das nVidia wieder mehr Marktanteile hat...

Die GeForce 6800 GT wird wohl schneller sein als die X800Pro, da sie der 6800 Ultra sehr gleich ist und nVidia Karten waren schon immer übertaktfreudig. Wenn der Preis bei ungefähr 300€ liegt, wird diese Karte ein voller Erfolg und sichert nVidia noch mehr Marktanteile. ATi hat immer die schnellsten Karten, aber wirklich bringen tut ihnen das nichts, da sie, wie du schon sagtest im Mainstream bereich nicht konkurrenzfähig sind. Die X800Pro kostet mit 400€ einfach zu viel, auch wenn sie teilweise doppelt so schnell wie eine 9800XT ist.

Die GeForce 6800 GT könnte sowas wie die GeForce 4 Ti 4200 der 6800er Serie werden. Wenn sie das schafft, wird nVidia immer mehr Marktanteile für sich gewinnen können und im Endeffekt erfolgreicher sein als ATi. Ich hoffe sie machen mal was daraus und bauen mit dem NV45 wieder eine Super Karte wie einst die GeForce 4 Serie...
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben