News Benchmarks: Radeon HD 2900 XT vs. 8800 GTS

Houli-Mouli schrieb:
So, nun erzähle uns allen was das beste ist?
1) 64 vec-5
2) 80 vec-4
3) 128 vec-1

Oder gehört da noch mehr dazu?!? Korrigiere mich bitte

Servaaaaas!

Und was hat das mit einer 128Bit Anbindung zu tun? Das sind doch die Shadereinheiten. Aber Blizzard Sprach von 128bit Anbindung?

Steh ich jetzt auf dem Schlauch oder hast du da jetzt was falsch verstanden?

Sind vernünftige Antworten denn wirklich so schwer? Mit deinen 29 Jahren sollte es doch möglich sein, in vollständigen Sätzen zu antworten und die Aussagen auch zu erläutern.
 
@ SSJ

Du gehörst gebannt ! Dann steigt bei CB auch das Niveau wieder...
Natürlich ist der Vergleich XT/GTS korrekt. Eine 8800 Ultra werden du,ich und wahrscheinlich alle anderen Leser hier NIE zu sehen bekommen.

@ Topic

Mich als Kunden interessiert die Architektur des GPUs herzlich wenig. Relevanter ist welche Leistung ich für welches Geld bekomme. Ausnahme: Der G90 und R700 müssen betankt werden...

Für mich sehen die Benches realistisch aus.
 
Houli-Mouli schrieb:
Auszug aus dem Artikel:
Neben dem Vergleichstest im Spielebereich hat Dailytech auch die Performance für professionelle Grafikanwendungen mittels SPECviewperf 9 ermittelt. Gegen die Radeon HD 2900 XT musste eine nVidia Quadro FX 5500 antreten. Das Modell von ATi ging in jedem der fünf aufgeführten Tests als Sieger hervor.


Was meint ihr dazu? Finde ich eignetlich abartig, dass die neue ATI im Workstationbereich gute Ergebisse liefert, oder?

@der sensor: high end gaming ist was für kleine Jungs ;), im offenen Markt aber sicher nicht unbeachtlich, was den Umsatz angeht. Nur denk einmal nach was dieser Bench, falls er richtig ist für Nvidia bedeutet. Öhhh.

ääh ich glaub wir verstehen uns falsch ? Ich finde die Leistung sehr beachtlich und für nieVidia
gibts wohl nix mehr zu holen im 3d bereich.Wer kauft schon noch ne Quadro wenn die "normale" ATI diese schon in Schranken weist -> deswegen bin ich ja schon gespannt auf die FireGL , welche die Quadro ja in den Boden stampfen sollte ;)
 
MagicTS schrieb:
@ stna1981

richtig so.

Zum Thema AVIVO habe ich noch was interessantes gefunden.

Auf Wikipedia steht:

"Als Avivo bezeichnet ATI Technologies eine mit der Radeon X1300 eingeführte Video-Plattform um die Multimedia-Fähigkeiten von ATIs Grafikkarten zu verbessern (Qualität und Flexibilität).

Diese Plattform ermöglicht das hardwarebeschleunigte Decodieren von Videomaterial, zum Beispiel H.264 (mit High Definition Auflösungen) oder MPEG4. Mit hardwarebeschleunigtem Encodieren wird zwar geworben, ist aber bisher nicht Teil von AVIVO. Zusätzlich gibt es einige Tools, um die Nutzung dieser Plattform zu ermöglichen, das bekannteste davon ist Avivo XCode."

Und noch was interessantes zum AVIVO XCode:

"Avivo XCode ist ein Programm von ATI Technologies zur Nutzung der Avivo Videoplattform und ermöglicht es, Filme in ein anderes Format zu codieren. Es benötigt etwa 4 bis 5 Minuten, um eine 1 GB große VOB-Datei in DivX umzuwandeln. Es beherrscht zur Zeit MPEG 1/2, VCD, S-VCD, MPEG 4 (DivX Compatible), WMV 9, Portable Media Center, H.264 (AVI), MPEG-4 (Sony PSP Compatible Video), H.264 (MP4 Apple iPod Compatible Video).

Das Programm setzt eine Grafikkarte der ATI Radeon-X1-Serie mit Avivo (X1300, X1600, X1800 usw.) im PC voraus. Diese Beschränkung ist jedoch willkürlich und dient nur dazu den Eindruck zu erwecken, dass die ATI hardware einen Teil der Rechenarbeit übernimmt, was jedoch nicht der Fall ist. Tests mit veränderten Versionen haben gezeigt, dass sich die Enkodierzeit selbst mit Nvidia Grafikkarten nicht erhöht."



Darüber kann ich nur lachen=)
Hier der Test zu AVIVO.

Da kann nvidia natürlich nicht mithalten....

Allein schon wegn Avivo würde ich eine ati einer nvidia verziehen..
 
Ganz interesant, aber doch nicht überwältigend dafür das sie sich solange Zeit gelassen haben, oder hat ATI eingesehen das der R600 nicht so toll ist(zu spät) und werkeln schon am R700?
 
Ich find die Benches vielversprechend und das was viele hier schreiben Schwachsinn.

1. Die XT steht der GTS gegenüber und die XTX der GTX.
2. Nvidia hatte 6 monate Zeit an den Treibern zu feilen.
3. Die GTX Ultra wird nie in großen Stückzahlen am Markt vertreten sein.

Und Fakt ist das auf alten ATI Karten neue Games besser laufen als auf Nvidias. Das ist seit der 9800 Serie so.

Ach ja im mom hab ich ne GTS drinne ;)
 
Da werde ich wohl bei meiner 8800GTS bleiben ;) ist doch klar ...

Alleine der Stromverbrauch, brachial ... bei dem bischen mehr leistung *lächerlich*


Nur SCHADE ... war lange ATI UND AMD Fan ... Nur preis-leistung-strom sind eben mal intel und nividia !
 
Das nenne ich owned vom Allerfeinsten... Werd mir das Teil wahrscheinlich kaufen. Vor allem wegen den 512 MB Ram. Ist genau richtig für meinen zukünftigen 22 Zöller.
 
Dass der R600 mit mehr Leistung aufwarten muss, um sich verkaufen zu können, liegt auf der Hand. Wobei es andere wichtige Faktoren gibt, von denen wir zur Zeit noch wenig bis gar nichts wissen.

Wie ist es um den Stromverbrauch bestellt? Oder die Bildqualität im Vergleich zu einem G80? Wie laut und effizient ist die Referenzkühlung der Karten? Laufen aktuelle und ältere Spiele einwandfrei mit den neuen Karten? Alles Fragen, die mich mehr interessieren als eine Hand voll sinnfreier Benchmarks.

Hardwareeigenschaften miteinander zu vergleichen (Anzahl der 'Shaderprozessoren', Speicherbusbreite, etc.) ist nur bedingt sinnhaft, weil beide Hersteller eine unterschiedliche Architektur realisiert haben.

Dass G80 und R600 mehr als genug Leistung für aktuelle und kommende Spiele bieten, wissen wir. Jetzt wäre es schön zu wissen, ob auch der Rest stimmt. Bis offizielle Tests vorliegen, bei denen man auch ersehen kann, mit welchen Settings gefahren wurde, bleibt viel Raum für weitere Spekulationen. Überdies dürften die meisten Käufer sich für Karten im mittleren bis unteren Preissegment entscheiden, wo es weder Benchmarks noch konkrete Produktvorstellungen seitens ATi/AMD gibt.

Dass nVidia leichter mit Preissenkungen agieren kann als ATi/AMD liegt auch auf der Hand, denn man ist bereits mehrere Monate am Markt, sodass bereits Gewinne eingefahren werden konnten.

Ich warte weiterhin gespannt auf die offizielle Vorstellung und nachfolgende Benchmarks auf ComputerBase. Schlussendlich es dürfte ausgehen wie immer: Der Hersteller ist Geschmackssache, Leistung ist auf beiden Seiten genug vorhanden... ;)

Liebe Grüsse,
Winterday
 
Zuletzt bearbeitet:
Ich bin ja auf die XL gespannt. Wenn die mit einer GTS konkurrieren kann und mit 300€ eben ein ganzes Stück billiger wird, dann wäre das schon sehr interessant.
 
Houli-Mouli schrieb:
So, nun erzähle uns allen was das beste ist?
1) 64 vec-5
2) 80 vec-4
3) 128 vec-1

Oder gehört da noch mehr dazu?!? Korrigiere mich bitte

Servaaaaas!


schwer zu sagen, vec-5 ist nicht ausgereift. und 80 vec-4 ggnn 128 vec-1 kann man nicht so sagen. sobald die architekttur/programmierung auf vec-4 optimiert ist, entspricht er maximal einem 320 vec-1 prozessor ;)

man muss aber auch bedenken, dass nvidia seine shader mind. 50% höher takten kann...
 
Ich denke das die Ati treiber wunderbar funktionieren werden(zumindest unter vista). Nvidia hat nämlich nicht eine 100%ige vista spezifikation im gegensatz zu ATI.
Das liegt daran das nvidia keine HDMI soundausgabe hat im gegensatz zu ati wo der soundchip ja bereits onboard ist.
 
HD2900XT wird wohl das maximum darstellen - vielleicht gibt es noch eine XTX - egal.

die 8800GTS - dann kommt noch eine GTX - und DANN kommt noch die Ultra. Ist dieser Vergleich also ausgeglichen? Ohne das Fachwissen würde ich jetzt pauschal sagen: nein
 
*gg* ich hab mi bis jetz alle Comments durchgelesn, muss schon sagen, unterhaltsamer als Fernsehen :)
Über was sich manche Leute hier auslassen und zum teil Sinnfrei diskutieren. Für uns als Endabnehmer kanns doch nur schöner werden. Bin zwar NV Fanboy, aber mich würds auch freuen das die ATi den G80 schlagen. Dann würden sie vll einen konter launchen oder zumindest die Presie der jetzigen G80 Karten senken. Die rieichen doch auch dicke ^^

@ Undergroundkind
Die XTX muss aber auch erst mal veröffentlicht werden. Solange man davon nix weiß braucht NV auch nix über die Ultra Preiszugeben.
 
Zuletzt bearbeitet:
Mortiss schrieb:
HD2900XT wird wohl das maximum darstellen - vielleicht gibt es noch eine XTX - egal.

die 8800GTS - dann kommt noch eine GTX - und DANN kommt noch die Ultra. Ist dieser Vergleich also ausgeglichen? Ohne das Fachwissen würde ich jetzt pauschal sagen: nein


die ultra.... die nur bei nvidia in der vitrine steht und einige "meinungsbilder von zeitschriften" usw bekommen.... die ist doch gar nicht für den handel gedacht.... ati könnte auch n paar excellent gute chips raussuchen, die hochtakten und dann sagen "wir haben ne superultra für 1000 €" die ist n fake, n geist den es theoretisch gibt.... aber eben nicht im handel...
 
@Undergroundking: Das mit der schlechten Programmierung, das stimmt.

Wenn die Spieleentwickler nicht so unter Zeitdruck stehen würden, dann könnten sie die Spiele-Engine besser optimieren und es würde "flüssiger laufen, aber "Time is money!".

Fakt ist es gibt viele! Spiele ( nicht vergessen Rainbow Six Vegas!), die erst mit einer 8800GTS/GTX und jetzt mit der kommenden Graka 2900XT flüssig laufen.

Es kommt aber auf jedem seine Ansprüche an.
 
http://pccentre.pl/Article16096.htm

anschauen!!!

noch was die treiber sind nicht ganz ausgereift, und ja bei höheren auflösungen wird der abstand zur GTS wohl etwas größer werden, Die HD 2900XT wird am ende wohl auch schneller als die GTX sein. (erinnert euch mal an 1800xt ggn 7800gtx, mit dem ersten treiber und den drauf folgenden)
Was anderes wäre auch eine Blamage...

P.S: Voraussetzung die Benches stimmen
 
SSJ schrieb:
@Undergroundking: Das mit der schlechten Programmierung, das stimmt.

Wenn die Spieleentwickler nicht so unter Zeitdruck stehen würden, dann könnten sie die Spiele-Engine besser optimieren und es würde "flüssiger laufen, aber "Time is money!".

Fakt ist es gibt viele! Spiele ( nicht vergessen Rainbow Six Vegas!), die erst mit einer 8800GTS/GTX und jetzt mit der kommenden Graka 2900XT flüssig laufen.

Es kommt aber auf jedem seine Ansprüche an.


das problem sind die frei begehbaren welten.... das spiel läuft gut, aber dann haste nen ruckler, weil eben informationen benötigt werden, die nicht im arbeitsspeicher stecken, sondern von der festplatte nachgeladen werden müssen..... und wenn das spiel so programmiert ist, dann nützt dir gar keine grafikkarte was.... egal wie schnell die ist, du wirst die ruckler immer haben...
 
AlphaGoku schrieb:
http://pccentre.pl/Article16096.htm

anschauen!!!

noch was die treiber sind nicht ganz ausgereift, und ja bei höheren auflösungen wird der abstand zur GTS wohl etwas größer werden, Die HD 2900XT wird am ende wohl auch schneller als die GTX sein. (erinnert euch mal an 1800xt ggn 7800gtx, mit dem ersten treiber und den drauf folgenden)
Was anderes wäre auch eine Blamage...

P.S: Voraussetzung die Benches stimmen

Die "Benches" von Crysis sind seit langem schon bekannt, jedoch kann niemand diese wirklich bestätigen, weswegen diese man mit Vorsicht genießen muss.

"Schwanzmark" sagt nichts aus.

Mir wäre es nur Recht, wenn die 2900XT schneller ist als die 8800GTX und viel günstiger ist.

Aber dies hat wohl nun nicht mehr den Anschein.

Siehe News von 3dcenter.

Wenn man die beste Performance hätte mit der 2900XT würde man diese anders vermarkten als dieses "Gelaber" vom Best-Value High-End" Produkt.
 
Undergroundking schrieb:
das problem sind die frei begehbaren welten.... das spiel läuft gut, aber dann haste nen ruckler, weil eben informationen benötigt werden, die nicht im arbeitsspeicher stecken, sondern von der festplatte nachgeladen werden müssen..... und wenn das spiel so programmiert ist, dann nützt dir gar keine grafikkarte was.... egal wie schnell die ist, du wirst die ruckler immer haben...

Wir reden hier gar nicht über die Aussetzer.
Schau dir die Benches an der von Computerbase.
Dann sind wohl Durchschnittswerte und da werden die gelegentlichen Aussetzer nicht den Ausschlag geben.
 
Zurück
Oben