Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
ob sich ddr4+128bit mehr lohnt als ddr3+256bit oder umgekehrt kann man pauschal nicht sagen.
eins ist aber fakt : das höhere interface bringt kosten mit sich die sonst eigentlich unnötig wären.
z.b. sind in den meisten fällen mehr pcb-layer nötig, die sonst allerdings für nichts gebraucht werden und somit nur für den speicher deutlich höhere kosten verursachen.
von 10-20€ mehr würde ich auf jedenfall ausgehen, wenn man 256bit statt 128bit einsetzt.
dazu kommt eine DEUTLICH aufwändigere entwicklungsarbeit.
ob die paar ddr4 chips da mehr ausmachen wage ich doch zu bezweifeln.
die ideale kombo für eine mitdrange karte ist meiner meinung nach trotzdem 128bit+ddr3, aber nur dann wenn das bei der produktion gesparte geld auch an den Kunden weiter gegeben wird in Form von niedrigen Preisen und nicht wie z.b. bei der 8600gts horrende preise für eine, in der entwicklung und herstellung, billige karte verlangt werden.
die ideale kombo für eine mitdrange karte ist meiner meinung nach trotzdem 128bit+ddr3, aber nur dann wenn das bei der produktion gesparte geld auch an den Kunden weiter gegeben wird in Form von niedrigen Preisen und nicht wie z.b. bei der 8600gts horrende preise für eine, in der entwicklung und herstellung, billige karte verlangt werden.
nur das die 1650xt 1/3 kostet und 20 %. also 300% mehr preis für 20% mehr leistung, super, da kann man sich doch auch ne 1950xt kaufen... die kostet dann ähnlich viel und ist auch noch einiges schneller.
Es kommt darauf an, wie effektiv die 64 voraussichtlich vorhandenen Shader-Einheiten arbeiten. Wobei, wenn die Gerüchte stimmen sollte, dass die 2900XTX 320 Shader hat (64x5) - bei CB war von 128 die Rede- dann habe ich so meine Zweifel, wieviele Shader nun wirklich effektiv vorhanden sind...
Es geht hier um Lowcost Mainstream-Modelle und nicht um Highendkarten, das scheinen hier ja einige nicht zu beachten.
Zeig mir mal bitte jemand eine Mainstream Karte mit 256bit, die gab es bisher noch nie.
Also entweder zeigen die Chips erst unter DX10 Spielen ihre Leistung, oder die wollen echt eine größere Kluft zw. Midrang und High End machen. Dann ist eben High End alles ab 1280x1024 mit Quali, Midrange für gelegenheitszocker und Low-end (wobei ich mich Frage wie dann die Low End dinger ausehen? Und für was sie gut sein sollen. Für Office etc. kannste auch Onboard nehmen.)
Und so Teuer kann ein 192Bit SI nicht sein, wenn man bei der 8800GTS für 250 ein 320Bit SI bekommt.....auch wenns ned der Flaschenhals ist, 192 müssten doch drin sein, dann sinds auch gleich ein Paar MB mehr Ram
Ok, die X1950Pro ist dann die erste Ihrer Art, wobei ich sie nicht als reinrassige Mittelklassekarte sehe, das wäre die X1650. Die X1950Pro ist wieder eher so ein Zwischending, CB selbst bezeichnet sie als "Upper-Mid-Range-Karte"
EDIT: die 7900GS wäre die gleiche Schublade, und die kam sogar noch vor der X1950Pro, also wäre es dann die zweite ihrer Art
schön und gut das sind mid range karten, trotzdem sind da 128bit im jahre 2007 nicht mehr akzeptabel.
wer für so einen schrott 150€ oder mehr zahlt gehört in die geschlossene. Zum zocken bringen die karten nicht viel bei dx10, und für dx9 gibts besseres für weniger
Dann lohnt sich ja eigentlich der kauf der HD2600XT weniger. Da spar ich lieber noch ein wenig und kauf mir dann eine HD2900XTX die ja "nur" 399€ kosten soll.
Und die dann auchnoch schneller als eine 8800GTX sein soll. Laut Beiträgen hier im Forum.