Wird HD 2600 in Zukunft doch besser?

aspro

Captain
Registriert
Mai 2004
Beiträge
3.563
Huhu,
Also vor ein paar Wochen gabs auf Anandtech eine Performance-Analyse von der UT3 Demo:
http://www.anandtech.com/video/showdoc.aspx?i=3128&p=3
Überraschend dabei: Schnellste Midrange Karte war die 2600 XT vor X1950 Pro und 8600 GTS (nur bei hohen Auflösungen konnte die X1950 noch leicht überholen), was ja in derzeitigen Spielen eher anders aussieht. Gut, dacht ich mir, kann auch wieder typischer Fall von Optimierungen sein.

Jetzt ist ja grad großer Crysis Hype (zurecht :D). Da gibts nun auch schon Performance-Analysen:
http://www.techspot.com/article/73-crysis-performance/page3.html
http://www.legionhardware.com/document.php?id=698&p=2
Was sieht man da: Wieder die selbe ungewöhnliche Reihefolge - was mich zur im Topic erwähnten These führt.

Meint/Glaubt ihr, dass die Architektur der 2600 doch besser auf zukünftige Titel ausgerichtet ist? Kennt ihr ähnliche Artikel, die dies bekräftigen/bestätigen?

Ich weiß, dass jetzt wieder kommt "kriegt aber auch so keine spielbaren Frames bei höchsten Details hin"...
Aber ich persönlich muss nicht immer auf höchsten Details spielen (hab noch nie Grakas >150€ gekauft) und imho sind etwas mehr Frames in performancehungrigen Spielen besser als ob man in älteren Spielen nur 50 statt 60 fps hat.
 
Ich hab die Karte gerade als Übergangskarte drin, UT3 basierte Spiele laufen damit wirklich sehr gut, z.B. Stranglehold.
Bioshock Demo lief auch mit maximalen Details auf 13xx*xxx (irgendwas 16:10) sehr gut, wobei sehr gut bei mir min. 40FPS avg. heißt.

Dass die Architektur eher auf zukünftige Titel ausgerichtet ist kann natürlich schon sein, es könnte aber auch sein, dass die Treiber eher darauf ausgerichtet sind.

edit: wobei es noch keinen neuen Treiber mit Anpassungen für Crysis von ATi gab. V.a. bei der DX10 Performance wären denke ich noch Verbesserungen möglich ;)
 
Zuletzt bearbeitet:
das textur/arithmetik-verhältnis ist bei ati-karten schon lange richtung arithmetik ausgeschlagen, was natürlich vorteile hat, da zukünftige spiele stärker auf berechnung setzen. ob es der karte allerdings was nützt ist fraglich, weil sie wahrscheinlich einfach nicht die texturleistung bringt, die auch in zukunft nötig sein wird. für viele aktuelle spiele ist sie ja schon zu langsam, wobei es nvidias 8600gt/s da nicht besser geht.
im genauen sieht das so aus: textur zu arithmetik
8800 gt 1:5
2900 xt 1:20(!)

8600 gt/s 1:5
2600 xt 1:15(!)

ich würde ja sagen "scheiß auf texturen", aber wenn die leistung hier nichtmal für aktuelles ausreicht, dann kann man nur abraten.
 
Zuletzt bearbeitet:
Finde den Gedanken wirklich interessant... Mir gehts genauso bin auch nich so der übelste "auf höchsten Auflösungen" Zocker... Mir reichen auch 800x600 mit 2xAA und das machen eigentlich alle Karten und Prozzis schon gut mit. Finde den Gedanken der HD 2600X2 auch nich schlecht... Muss aber ehrlich sagen da würde ich trotzdem für paar mehr Euro die HD2900GT vorziehen zumal bald die HD3800er Serie anbricht da werden sich die Preise nochmal nach unten Richtung Keller begeben... (hoff ich :D )

Grüße
 
Naja die 2600 X2 hat halt viele, um nicht zu sagen eigentlich nur, Nachteile: kein Vorteil bei Crossfire nicht unterstützenden Spielen, teurer als 2 einzelne 2600 und klar bessere Konkurrenz, ob nun die etwas teurere 8800 GT, 2900 Pro oder (wahrscheinlich) die kommenden 3800er - sagtest du ja schon.
Und wie gesagt, mehr als 150€ geb ich nicht für Grakas aus, auch nicht für das geniale Crysis.
 
Zurück
Oben