News Radeon HD 2600XT nur mit 128-Bit-Controller?

also erstmal war schon länger bekannt, dass die hd 26xx er reihe nen 128er SI haben wird.

wenn die hd2600pro z.b. für 100€ über die theke geht, sind auch 128SI ok ;)

außerdem, da die hd2900xtx 512SI haben wird, wird es auch eine hd2900gto mit 256SI geben.
 
Ich hab ein Auge auf die HD2800GT geworfen, die 256 MB der GTO scheinen mir etwas wenig zzkunftssicher zu sein...
 
Wenn die Gerüchte wirklich stimmen sollten, dann wäre das kein guter Schachzug von AMD/ATI.

Aber ich glaube es erst,wenn ich offizielle daten sehe - also abwarten und tee trinken ;)
 
ob sich ddr4+128bit mehr lohnt als ddr3+256bit oder umgekehrt kann man pauschal nicht sagen.

eins ist aber fakt : das höhere interface bringt kosten mit sich die sonst eigentlich unnötig wären.

z.b. sind in den meisten fällen mehr pcb-layer nötig, die sonst allerdings für nichts gebraucht werden und somit nur für den speicher deutlich höhere kosten verursachen.

von 10-20€ mehr würde ich auf jedenfall ausgehen, wenn man 256bit statt 128bit einsetzt.
dazu kommt eine DEUTLICH aufwändigere entwicklungsarbeit.

ob die paar ddr4 chips da mehr ausmachen wage ich doch zu bezweifeln.

die ideale kombo für eine mitdrange karte ist meiner meinung nach trotzdem 128bit+ddr3, aber nur dann wenn das bei der produktion gesparte geld auch an den Kunden weiter gegeben wird in Form von niedrigen Preisen und nicht wie z.b. bei der 8600gts horrende preise für eine, in der entwicklung und herstellung, billige karte verlangt werden.
 
Realsmasher schrieb:
die ideale kombo für eine mitdrange karte ist meiner meinung nach trotzdem 128bit+ddr3, aber nur dann wenn das bei der produktion gesparte geld auch an den Kunden weiter gegeben wird in Form von niedrigen Preisen und nicht wie z.b. bei der 8600gts horrende preise für eine, in der entwicklung und herstellung, billige karte verlangt werden.

Solange nVidia bei den DX10 Karten keine Konkurrenz hat, wären sie doch blöd die 86xxer für 150€ anzubieten. ;)
 
nur das die 1650xt 1/3 kostet und 20 %. also 300% mehr preis für 20% mehr leistung, super, da kann man sich doch auch ne 1950xt kaufen... die kostet dann ähnlich viel und ist auch noch einiges schneller.
 
Es kommt darauf an, wie effektiv die 64 voraussichtlich vorhandenen Shader-Einheiten arbeiten. Wobei, wenn die Gerüchte stimmen sollte, dass die 2900XTX 320 Shader hat (64x5) - bei CB war von 128 die Rede- dann habe ich so meine Zweifel, wieviele Shader nun wirklich effektiv vorhanden sind...
 
Sturmgewalt schrieb:
Es geht hier um Lowcost Mainstream-Modelle und nicht um Highendkarten, das scheinen hier ja einige nicht zu beachten.
Zeig mir mal bitte jemand eine Mainstream Karte mit 256bit, die gab es bisher noch nie.

mfg

Wenn mich nicht alles täuscht dann ist die X1950Pro eine davon.
 
Also entweder zeigen die Chips erst unter DX10 Spielen ihre Leistung, oder die wollen echt eine größere Kluft zw. Midrang und High End machen. Dann ist eben High End alles ab 1280x1024 mit Quali, Midrange für gelegenheitszocker und Low-end (wobei ich mich Frage wie dann die Low End dinger ausehen? Und für was sie gut sein sollen. Für Office etc. kannste auch Onboard nehmen.)
Und so Teuer kann ein 192Bit SI nicht sein, wenn man bei der 8800GTS für 250 ein 320Bit SI bekommt.....auch wenns ned der Flaschenhals ist, 192 müssten doch drin sein, dann sinds auch gleich ein Paar MB mehr Ram :)
 
Ich meine, es ist wesentlich einfacher mit für nVidia mit DX10, besonders jetzt mit Vista, zu werben als Ati mit irgendwelchen Benchmarks.
 
XShocker22 schrieb:
Wenn mich nicht alles täuscht dann ist die X1950Pro eine davon.

Ok, die X1950Pro ist dann die erste Ihrer Art, wobei ich sie nicht als reinrassige Mittelklassekarte sehe, das wäre die X1650. Die X1950Pro ist wieder eher so ein Zwischending, CB selbst bezeichnet sie als "Upper-Mid-Range-Karte" ;)

EDIT: die 7900GS wäre die gleiche Schublade, und die kam sogar noch vor der X1950Pro, also wäre es dann die zweite ihrer Art ;)
 
Zuletzt bearbeitet:
Eine schwache Vorstellung von ATI.
Nach einem halben Jahr nicht der Konter den man sich Erwartet hat.
:freak:
 
128bit? Na wenigstens kein 64bit :/

schön und gut das sind mid range karten, trotzdem sind da 128bit im jahre 2007 nicht mehr akzeptabel.

wer für so einen schrott 150€ oder mehr zahlt gehört in die geschlossene. Zum zocken bringen die karten nicht viel bei dx10, und für dx9 gibts besseres für weniger
 
Man, ich war immer noch auf die Voodoo 5 6000 Quadcore! YEAHHH :D :lol: :freak: :D :evillol:
 
128 bit das ist aber ein gutes Eigentor auch für nvidia die sind auch nicht besser nach meiner persönlichen Meinung ist alles unter x1950 schrott :freak:
 
Dann lohnt sich ja eigentlich der kauf der HD2600XT weniger. Da spar ich lieber noch ein wenig und kauf mir dann eine HD2900XTX die ja "nur" 399€ kosten soll.

Und die dann auchnoch schneller als eine 8800GTX sein soll. Laut Beiträgen hier im Forum.
 
nun, solange man auf 1280x1024 mit 2xAA spielt, wird das 128bit SI nicht so stark bremsen. darüber ist es aber schon etwas knapp bemessen.

niemand zwingt euch übrigends einen mainstreamchip zu kaufen...
 
Zurück
Oben