News Benchmarks: Radeon HD 2900 XT vs. 8800 GTS

WOW!!!!!!! Jetzt kommt eine neue Grafikkarte und ist schneller als eine Grafikkarte, die über 6 Monate alt ist. Wen wundert's? ATI hatte länger Zeit an der Performence zu schrauben und konnte von der Konkurrenz lernen. Bald kommt die 8800 Ultra die dann der XTX ebenbürtig sein wird. Und im Herbst geht alles wieder von vorn los, wenn 8900 GTS/GTX/ULTRA und 2950 XT/XTX auf den Markt geschmissen werden.

Ich bin seit 10 Jahren mit nVidia gut gefahren, sollte ATI mal etwas innovatives entwickeln, warte ich ab und werde ATI vllt. eines Tages vorziehen.
 
da wäre noch folgendes zu beachten:
- es handelt sich angeblich um ATI freundliche spiele
- die 8800GTX ist ein gutes stück schneller als die GTS. wie das bei ATI zur XTX ausschauen wird ka
- nvidia wollte doch irgendwelche "wundertreiber" rausbringen?

es läuft eigentlich nur wieder auf wilde spekulationen hinaus. ich hab ne 8800GTX und werde auch nicht aufrüsten. ATI hats diesmal verschissen, durch die ewigen verschiebungen.
 
ähm wenn man den Bericht von DailyTech liest dann geht meiner Meinung nach hervor das sie auf deren System getestet haben.

Außerdem wo ist das Problem wenn sie eine HD2900XT mit einer 8800GTS vergleichen immerhin ist die HD2900XTX das Flagschiff und das muss man mit der 8800GTX vergleichen, also wo liegt da das Problem?
 
NIGHTFIL schrieb:
2. Wie hoch ist die CPU auslastung der neuen ATI-GPUs während gespielt wird?!
=>Bei ATI: 5%, bei Nvidia: 100% !!!!

Ja nee, is klar.

NIGHTFIL schrieb:
Mag ja sein das ati mehr streamprozessoren hat.. aber die haben auch einen sinn! Denn die Ati graka berechnet, anders wie bei nvidia, auch noch die Physik!!!

Fazit: Ati:Physikberechnung, Soundchip, AVIVO, Videobeschleunigung
Nvidia: keine Physikbrechnung, kein spundchip, keine Avivo, videobeschleunigung

1. NVidia Karten können auch Physikberechnungen ausführen
2. NVidia Karten haben auch eine Art AVIVO, das heißt nur anders (nämlich PureVideo bzw. PureVideo HD)
3. Wozu soll man auf einer Grafikkarte einen Soundchip brauchen, unnütz.
4. NVidia Karten haben auch eine Videobeschleunigung
 
schon enttäuschend das Ergebnis, wenn es sich so bewahrheitet.
Nach so langem Verzug (in dem nVidia Kohle machen konnte ohne Ende) so "knapp" wieder die Spitze übernehmen zu können wird wahrscheinlich nicht reichen um die Löcher in der Kasse von AMD zu stopfen.

Ich bin ziemlich sicher, daß nVidia schon die ganze Zeit an ihrem neuen Modell arbeitet. Dann haben wir in ein paar Monaten erneut den Führungswechsel und nVidia kann wieder ein paar Monate Kohle abgreifen bis AMD gleichzieht...klingt nicht gerade rosig für die Konkurrenzsituation auf dem Markt.

Für die Preise wäre es mit lieber, daß die Konkurrenzkarten möglichst gleichzeitig auf den Markt kommen...so sehe ich langfristig schwarz für AMD (zumal die auch noch ihre Prozessorsparte in den Griff bekommen müssen).

Naja, mal sehen was wird...ich habe erst vor kurzem ne 8800GTX geholt weil AMD nicht in die Gänge kam, daher bin ich in den nächsten 6 Monaten eh nur Zuschauer.
 
Die Karte ist sogut wie gekauft ;)

(vorausgesetzt der Preis passt zur Leistung)
 
kann man dann davon ausgehen das die preise bis zum bzw. nach release wieder fallen?

bin grad am überlegen meine kiste doch noch n bisschen aufzurüsten und dann käme mir eine ehemalige endkarte im preis vom mittelklasse segment grade recht.
 
aceman1st schrieb:
Ich bin seit 10 Jahren mit nVidia gut gefahren, sollte ATI mal etwas innovatives entwickeln, warte ich ab und werde ATI vllt. eines Tages vorziehen.

Was ein sinnloser Satz ... als ob ATI noch nie was gutes entwickelt hat (R300, R520 zumindest von der Innovation her).

da wäre noch folgendes zu beachten:
- es handelt sich angeblich um ATI freundliche spiele
- die 8800GTX ist ein gutes stück schneller als die GTS. wie das bei ATI zur XTX ausschauen wird ka
- nvidia wollte doch irgendwelche "wundertreiber" rausbringen?

Oblivion ist nicht ATI oder Nvidia-freundlich, wie man heute sieht: Die G70-Architektur ist in dem Spiel untergegangen, während die G80-Architektur der Renner schlechthin ist.
Und was für einen Wundertreiber Nvidia bringen will ist fragwürdig. Die könnten höchstens noch die ungenutzte MUL-Einheit in ihren Shadern zur Verwendung "freigeben", aber Wunder sollte man davon nicht erwarten. Ein Wunder wäre nur ein niedriger Idle-Stromverbrauch^^
 
NIGHTFIL schrieb:
1. ATI hat AVIVO... hat nvidia sowas?! kann man mit einer nvidiagraka die performance eines encoders 5 mal schneller machen?! ->NEIN<- !!!

Schwachsinn, nVidia bietet z. B. auch H.264-Beschleunigung. Und von Encoding-Support war bei Avivo bisher nichts zu sehen, also halt mal den Ball flach!

NIGHTFIL schrieb:
2. Wie hoch ist die CPU auslastung der neuen ATI-GPUs während gespielt wird?!
=>Bei ATI: 5%, bei Nvidia: 100% !!!!

Spekulation, wieso sollte die CPU-Last bei der ATI-Karte 5% betragen? Mit dem Argument schießt du dir selbst ins Bein, eine CPU-Last von 5% hieße, dass die GPU limitiert, 100% dass die CPU limitiert. Also wären 5% bei der ATI-Karte ein Zeichen dafür, dass der Chip nichts taugt :o

NIGHTFIL schrieb:
Außerdem hat ati noch ein soundchip an board!
Wayne... hättest du dich informiert, wüsstest du, dass der lediglich zur Tonwiedergabe über HDMI dient...

NIGHTFIL schrieb:
Mag ja sein das ati mehr streamprozessoren hat.. aber die haben auch einen sinn! Denn die Ati graka berechnet, anders wie bei nvidia, auch noch die Physik!!!

Bullshit, die nVidia-Karte kann genauso Physik berechnen, das ist Teil der DX10-Spezfikation!
 
MADman_One schrieb:
Ich bin ziemlich sicher, daß nVidia schon die ganze Zeit an ihrem neuen Modell arbeitet.

Schonmal was davon gehört, dass ATI auch parallel entwickelt? Der R700 ist bereits in Entwicklung. Das war auch bei der X1800er und der X1900er-Reihe so, die wurden auch getrennt entwickelt!
 
aceman1st schrieb:
Ich bin seit 10 Jahren mit nVidia gut gefahren, sollte ATI mal etwas innovatives entwickeln, warte ich ab und werde ATI vllt. eines Tages vorziehen.
Da hast du den Höhepunkt von ATi schon verschlafen -> R300 :evillol:
 
Manche hier scheinen nicht zu wissen wie lange man an einem so eine chip arbeitet!

Denkt ihr, man fangt erst mit der entwicklung eines neuen chips an wenn der jeztige fertig ist! schmu!!!!

Der Treiber der benutzt wurde, war sicher auch net das gelbe vom ei! xD

Ich vertraue ATI, dass sie was gescheites machen!

Die XTX wird wir rocken und wer weiß was noch kommt!

EDIT: Post über mir: Ja lol....das ganze gabs schonmal..nur umgekehrt, als Nvidia mächtig eingeschissen hat mit der 5er serie!^^
 
@ stna1981

richtig so.

Zum Thema AVIVO habe ich noch was interessantes gefunden.

Auf Wikipedia steht:

"Als Avivo bezeichnet ATI Technologies eine mit der Radeon X1300 eingeführte Video-Plattform um die Multimedia-Fähigkeiten von ATIs Grafikkarten zu verbessern (Qualität und Flexibilität).

Diese Plattform ermöglicht das hardwarebeschleunigte Decodieren von Videomaterial, zum Beispiel H.264 (mit High Definition Auflösungen) oder MPEG4. Mit hardwarebeschleunigtem Encodieren wird zwar geworben, ist aber bisher nicht Teil von AVIVO. Zusätzlich gibt es einige Tools, um die Nutzung dieser Plattform zu ermöglichen, das bekannteste davon ist Avivo XCode."

Und noch was interessantes zum AVIVO XCode:

"Avivo XCode ist ein Programm von ATI Technologies zur Nutzung der Avivo Videoplattform und ermöglicht es, Filme in ein anderes Format zu codieren. Es benötigt etwa 4 bis 5 Minuten, um eine 1 GB große VOB-Datei in DivX umzuwandeln. Es beherrscht zur Zeit MPEG 1/2, VCD, S-VCD, MPEG 4 (DivX Compatible), WMV 9, Portable Media Center, H.264 (AVI), MPEG-4 (Sony PSP Compatible Video), H.264 (MP4 Apple iPod Compatible Video).

Das Programm setzt eine Grafikkarte der ATI Radeon-X1-Serie mit Avivo (X1300, X1600, X1800 usw.) im PC voraus. Diese Beschränkung ist jedoch willkürlich und dient nur dazu den Eindruck zu erwecken, dass die ATI hardware einen Teil der Rechenarbeit übernimmt, was jedoch nicht der Fall ist. Tests mit veränderten Versionen haben gezeigt, dass sich die Enkodierzeit selbst mit Nvidia Grafikkarten nicht erhöht."
 
stna1981 schrieb:
Spekulation, wieso sollte die CPU-Last bei der ATI-Karte 5% betragen? Mit dem Argument schießt du dir selbst ins Bein, eine CPU-Last von 5% hieße, dass die GPU limitiert, 100% dass die CPU limitiert. Also wären 5% bei der ATI-Karte ein Zeichen dafür, dass der Chip nichts taugt :o

Hier ist wohl eher gemeint, dass der Nvidia-Treiber unter Grafiklast die CPU stark belastet, um im Hintergrund noch zu optimieren. Das ist im Zeitalter von Multicore-CPUs per se nicht das Problem, aber es sagt etwas darüber aus, wo ATI noch einiges rausholen kann bzw. wo Nvidia Einbußen machen muss, wenn Spiele irgendwann alle Kerne auslasten.

Allerdings sind 5 vs 100 Prozent natürlich stark übertrieben.
 
hey erstmal langsam das ist die version mit 512 mb und immerhin schneller als ein 8800 gts mit 640 mb . die anderen karten werden noch kommen mit 786 mb oder 1024. also abwarten und tee trinken. auserdem ist da nicht die schnellste wie gesagt xt .
 
Freu mich auf die neuen ATI-Karten, so eine schicke obere Mittelklasse bzw. untere Highend-Karte wäre was für meinen neuen PC.

Aber immer diese halben Benchmark-Ergebnisse...will das Teil endlich mal in Action sehen bzw. vernünftig getestet haben.

Naja, hoffen wir mal auf Mitte Mai :)
 
C.J. schrieb:
Hier ist wohl eher gemeint, dass der Nvidia-Treiber unter Grafiklast die CPU stark belastet, um im Hintergrund noch zu optimieren. Das ist im Zeitalter von Multicore-CPUs per se nicht das Problem, aber es sagt etwas darüber aus, wo ATI noch einiges rausholen kann bzw. wo Nvidia Einbußen machen muss, wenn Spiele irgendwann alle Kerne auslasten.

Allerdings sind 5 vs 100 Prozent natürlich stark übertrieben.

Das gilt aber afaik nur für die 8800er, die neuen 8600er haben doch eine verbesserte H.264-Bescheleunigung, die die CPU wensentlich besser entlasten soll
 
stna1981 schrieb:
Das gilt aber afaik nur für die 8800er, die neuen 8600er haben doch eine verbesserte H.264-Bescheleunigung, die die CPU wensentlich besser entlasten soll

Moment, die Frage war ja die CPU-Auslastung in Spielen. Und auch dort tritt bei ungenutzten CPU-Kernen der Fall ein, dass sich der Grafiktreiber durchaus mal 20% davon gönnt, um Berechnungen zu optimieren. Mit H.264-Beschleunigung hat das erst mal nichts zu tun.
 
Zurück
Oben