News Radeon HD 2600XT mit 0,7-ns-GDDR4-Speicher

@ Seppuku
Natürlich hast du recht, ein 256-Bit Interface ist nicht alles. Allerdings hatte ich doch gehofft, das die Upper-Midrange-Karten dieser Generation gefährlich nahe an die High-End-Karten der letzten Generation kommen und da habe ich halt bedenken, ob dies mit einem 128-Bit Interface erreicht werden kann. Allerdings hast du da einen sehr guten Punkt angesprochen: Evtl. kann die GPU mit mehr Speicherdurchsatz gar nichts anfangen. Nun, die Tests werden zeigen, ob sich dies bewahrheitet.
 
testeron schrieb:
und was nuzt denn die erhöhte Speicherbandbreite wenn die GPU zu lahm ist...?
glaube eher das es beim Proto-promotyp bleibt..es sei denn die GPU lässt sich gut übertakten


Warum ist bei der 2600XT die GPU zu lahm? Selbst wenn die GPU abgespeckt ist sind 800MHz eine stolze Taktrate und wird einen Einfluß auf die Gesamtperformance haben.

Alle Tester haben bei den neuen Mainstreamkarten die zu geringe Speicherbandbreite durch das 128Bit-Speicherinterface als Flaschenhals genannt.
Um das auszugleichen, wird jetzt schnell getakteter GDDR4 verbaut, ergo ist der Flaschenhals weniger eng.

Meiner Meinung nach der richtige Weg und wenn das Preisleistungsverhältnis am Ende stimmt, interessiert es auch keinen mehr, woher die Leistung kommt, wenn sie denn da ist.
 
Zuerst nachdenken, dann News posten:

Da die Grafikkarte HD 2600XT weiterhin nur über ein 128-Bit-Interface verfügt, kommen die derzeit zu den besten verbauten Speicherchips gehörenden Samsung-Modelle niemals voll zur Geltung.

Wenn die Grafikkarte nur 128Bit Speicherinterface hat, dann braucht sie den schnellen Speicher erst recht, um auf ihre benötigte Bandbreite zu kommen. Mit einem 512Bit Speicherinterface ist das nicht so wichtig, weil man den Grafikchip eh in Daten ersäuft.
 
Ich glaube kaum, dass diese Karte überhaupt im Mark erscheinen wird. GDDR4 hört sich für den Kunden zwar toll an, aber wenn sie dafür um einiges teuer ist (im Gegensatz zur normalen 2600XT) und in den Benchmarks trotzdem nicht viel besser abschneidet (Speicherinterface etc.), will die Karte doch keiner mehr haben.
 
@ 44:die 2600er wirds schon mit gddr4 geben....also die hab ich zB schon gefunden

GECUBE RADEON HD2600XT, 256MB GDDR4, HDMI, Dual DVI (2 x Dual-Link, HDCP) Edition
VPU Radeon 2600XT (RV630XT) (65nm)
Memory 256MB GDDR4 (256-bit internal Ring Bus Memory Controller)
Bus support PCI-Express x16

also so stehts auf der webseite von gecube
 
Zuletzt bearbeitet:
Die Karte ist dank niedrigem Stromverbrauch und UVD sicher extrem interessant,
zumindest für Viedeoschnitt, da sie die CPU entlastet bei encodieren.
 
Vorausgesetzt der UVD funzt im Gegensatz zur 2900 mal ;)
 
Ich glaube ebenfalls nich, dass eine 256 bit Speicheranbindung so viel mehr bringt...ich denke eher, dass eine hohe Speicheranbindung auf einen insgesamt schnelleren Chip schliessen lässt und nich andersharum (Hohe Speicheranbindung=guter chip)
man sieht es ja z.B. bei ner geforce 6800 (256 bit interface, wird aber locker durch die 8600gts (128 bit) geschlagen, was im umkehrschluss bedeuten muss, das die Speicheranbindung übertrieben gewesen sein muss bei der 6800.
Warum soll ATI dann mehr produktionskosten haben durch das größere Interface ohne Vorteil für die performance?

Ausserdem wird das denke ich eine ganz gute Karte, wenn sie wirklich für 110-130 euro zu haben sein wird. Passiv gekühlt, wenig Stromhunger, mit Video-beschleuniger auch was für Media-Center PCs.
 
Zuletzt bearbeitet:
Klar, ohne AA und AF braucht man keine schnelle Speicheranbindung, deswegen muss das aber noch lange nicht in jedem testszenario so sein. Und auch manche Mittelklassekunden wollen auf ein bisschen AA und AF nicht verzichten, die Auflösung wird bei Flöachbildschirmen vom Bildschirm quasi vorgegeben und ich möchte gerne einmal einen test sehen, in dem die 2600XT oder 8600gts gegen ihre direkte Preiskonkurrenz, die 7900GS, mit deaktivierten Unoptimierungen antreten muss...

Ne 6800 hat ja keinen so schnellen Speicher - MHz*Bitbreite, beides zusammen ist entscheidend.
 
Zuletzt bearbeitet:
gerade eineKarte mit 128bit Interface braucht schnellen Speicher um auf annehmbare Bandbreiten zu kommen
deswegen ist es sicher nicht verkehrt sie mit GDDR4 auszustatten(solange der Preis stimmt;))
ausserdem ist der 630XT Chip(im Verhältnis zum R600) weniger kastriert als der G83 natürlich wird er keine neuen Geschwindigkeits-rekorde aufstellen(dafür ist er auch nicht ausgelegt) und gerade durch den DDR4 Speicher und 65nm Fertigung könnte
sich auch ein recht gutes übertaktungspotenzial ergeben, also abwarten was die ersten Tests dieser Karte zeigen
 
Ich kann nur den Kopf schütteln wegen dem 128 Bit Interface... 256Bit oder mehr und das wär die perfekte Karte geworden..
 
@ 8MiLe

Und wieder mal einer, der einfach das nachplappert, was die anderen sagen :rolleyes:
Schon mal auf den Speicherdurchsatz geschaut? Und jetzt sag mir mal, warum der für eine Mittelklassekarte nicht ausreichen sollte!?
 
Ich hab gar nicht gelesen was andere hier geschrieben haben ^^ mag ja sein, dass der Speicherdurchsatz auch so hoch genug sein kann.. Aber mit 256 Bit hätte man evtl den Speichertakt etwas runterschrauben können, trotzdem mehr Leistung gehabt und noch Luft für OC'ler gelassen..
 
das lässt mich kalt ohne benshmark mach ich für mich nirgens einen schlusstrich :D
 
@Realsmasher
Mag sein, dass sie es gar nicht hat (war der Meinung der wäre nur defekt), was aber nichts damit zu tun hat, dass AMD (ATi) die 2900 u.a. mit UVD beworben hatte - gibt schließlich genug Präsentationsfolien und Spezifikationen, wo das Schlagwort auftaucht - und erst später bekannt wurde, dass es nicht funzt.
 
Realsmasher schrieb:
hey, 2200mhz mit 128bit klingt doch garnicht übel für ne midrange karte.

rechenbeispiel : 2200mhz * 128bit = 281600
zum vergleich die x1950gt : 1200*256bit = 307200

Das ist leider nicht richtig ,Du mußt noch durch 8 teilen ( 8 Bit =1 Byte ),dann kommt man bei der HD 2600XT auf 35,200 GB/s ,und bei der X1950GT auf 38,400 GB/s .

Wenn die noch ein 265 Bit Interface hätte ,dann würde die in einer anderen Liga spielen und würde selbst die HD 2900XT überflügeln .
 
@ Triton99

Und was ändert das an dem Verhältnis zueinander?
Ja, und am besten noch ein Interface mit 512bit. Schon mal daran gedacht, dass für die Leistung der Karte nicht nur das Speicherinterface ausschlaggebend ist?
In den Einstellungen in denen man eine so hohe Bandbreite braucht, hat die GPU sowieso nicht mehr genug Rechenleistung.
 
Triton99 schrieb:
Wenn die noch ein 265 Bit Interface hätte ,dann würde die in einer anderen Liga spielen und würde selbst die HD 2900XT überflügeln .

Achja? 2900xt: 1650MHzx512Bit/8=105.600
Virtuelle 2600xt: 2200MHzx256Bit/8=70.400

und wo ist deine virtuelle hd2600xt nun vor der hd2900xt? Das musst du mir noch einmal erklären.
 
"Das ist leider nicht richtig"
Sicher ist es richtig, die Einheit fehlt nur: Mbit/s

"Wenn die noch ein 265 Bit Interface hätte ,dann würde die in einer anderen Liga spielen und würde selbst die HD 2900XT überflügeln ."
Würde sie nicht. Ein 256 bit Interface wäre auch nur halb so breit wie das der 2900.
 
Zurück
Oben