News Radeon HD 2600XT nur mit 128-Bit-Controller?

!"EXXTREME"! schrieb:
Im prinzip hast du ja Recht aber meinst du nicht das es so langsam an der Zeit wäre auch dem Midrange Sektor wenigstens mal ein Update auf 192Bit zu gönnen?
Mittlerweile ist es sehr wohl so, daß das Interface den Flaschenhals bildet.

Ich sagte ja, 192 Bit wäre schon nett gewesen, wäre auch - wie bisher üblich - die Hälfte des Topmodells gewesen (bei nVidia).

ATI führt mit dem 512 Bit SI im Prinzip eine 4. Klasse ein, High End mit 512 Bit, Lower High End miit 256 Bit und Mid Range mit 128 Bit... macht das Ganze nicht einfacher!
 
W0mbat du bewertest quellen auch wies dir grad passt oder? mal is ne chinesische quelle mist, und hier isse wieder gut? nun ja. zumal das alles andere als ein beweis ist. sowas ist in 2 minuten mit PAINT!! gefakt. Ein Bild der Karte auf der auf dem Chip das DDR4 lesbar wär, wäre vertraulicher.

Für mich macht es auch der Logik halber keinen sinn. Teurer DDR4 Speicher mit 128 bit anbinden und das alles auch noch zu dem Preis?? ich mein bei ATI sind keine Idioten beschäftigt. Ich glaub kaum das die sowas auf den Markt hauen. aber ich lass mich gerne eines besseren belehren wenn sie auf dem markt sind.
 
stna1981 schrieb:
Ich sagte ja, 192 Bit wäre schon nett gewesen, wäre auch - wie bisher üblich - die Hälfte des Topmodells gewesen (bei nVidia).

ATI führt mit dem 512 Bit SI im Prinzip eine 4. Klasse ein, High End mit 512 Bit, Lower High End miit 256 Bit und Mid Range mit 128 Bit... macht das Ganze nicht einfacher!

Lower High End mit 256Bit, mmhh was habe dann bitte ich mit meinen 320Bit für eine Karte:D ?
 
Mustis schrieb:
W0mbat du bewertest quellen auch wies dir grad passt oder? mal is ne chinesische quelle mist, und hier isse wieder gut? nun ja. zumal das alles andere als ein beweis ist. sowas ist in 2 minuten mit PAINT!! gefakt. Ein Bild der Karte auf der auf dem Chip das DDR4 lesbar wär, wäre vertraulicher.

Für mich macht es auch der Logik halber keinen sinn. Teurer DDR4 Speicher mit 128 bit anbinden und das alles auch noch zu dem Preis?? ich mein bei ATI sind keine Idioten beschäftigt. Ich glaub kaum das die sowas auf den Markt hauen. aber ich lass mich gerne eines besseren belehren wenn sie auf dem markt sind.

Der GDDR4 war geplant. AMD ist aber zurück gerudert, da es um die verfügbarkeit sehr, sehr schlecht bestellt war/ist.
Das wird sicherlich auch irgentwann einmal bei W0mbat angekommen sein:p .
 
Lower-Higher-Midrange? Ist doch alles gequirlte Hühnerkagge.
Fakt ist, dass ich zum gleichen Preis (ca.200€) ne leistungsstärkere Vorgängerkarte krieg (X1950 bzw. 7900GT) und das ist für mich das enttäuschende.
Und kommt mir jetzt keiner mit DX10, sämtliche für DX10 angekündigte Spiele werden mit so einer Karte zur Qual.

Edit: "gequirlte Hühnerkagge" bezog sich auf die Klasseneinteilung, die hier gemacht wird, die so nichtssagend ist, dass sie ja nichtmal den Marketingstrategen von NV /ATI eingefallen sind. Außerdem tut es nix zur Sache. Ich schau mir die Karten nach dem Kriterium Preis-Leistung an, und für 180-250€ (nennt diese Klasse wie ihr wollt) gibt es eben besseres.
 
Zuletzt bearbeitet:
ToNkA23 hat absolut recht, DX10-Mittelklasse bedeutet bis jetzt viel Geld für wenig Frames..Der 128bit SI der 2600er ist ja schon lange und allgemein bekannt, ich verspreche mir auch nix von den leicht erhöhten Taktraten ggü der 8600GTS, eher von den 64 Streamprozessoren, wenn es wahr ist.
Abwarten..
 
ToNkA23 schrieb:
Lower-Higher-Midrange? Ist doch alles gequirlte Hühnerkagge.
Fakt ist, dass ich zum gleichen Preis (ca.200€) ne leistungsstärkere Vorgängerkarte krieg (X1950 bzw. 7900GT) und das ist für mich das enttäuschende.
Und kommt mir jetzt keiner mit DX10, sämtliche für DX10 angekündigte Spiele werden mit so einer Karte zur Qual.

Die 8600GTS liegt in etwa auf Augenhöhe mit der 7900GT, außer in Spielen mit Doom 3 Engine. In anderen Shaderlastigeren Spielen aber wieder vor der 7900GT.
Ich hätte mir aber auch mehr erwartet, daß ist richtig.
 
Es gibt keinen 1,1GHz GDDR3 und ATI betreibt den Speicher betimmt nicht außerhalb der Spezifikationen.

Und von Chinesische Quelle kommen so ziemlich alle R600 Bilder.
 
!"EXXTREME"! schrieb:
Lower High End mit 256Bit, mmhh was habe dann bitte ich mit meinen 320Bit für eine Karte:D ?

Das würde ich auch zu "Lower High End" zählen. Wem es besser gefällt, kann auch sagen "abgespeckte High End-Karte" ;)

Und was der eine oder andere hier für "gequirlte Hühnerkagge" hält, interessiert mich und die anderen wahrscheinlich relativ wenig...
 
w0mbat schrieb:
Es gibt keinen 1,1GHz GDDR3 und ATI betreibt den Speicher betimmt nicht außerhalb der Spezifikationen.

Und von Chinesische Quelle kommen so ziemlich alle R600 Bilder.

Es ist nun Mittag, leg dich nen Stündchen hin und träum weiter vom GDDR 4 auf einer HD2600XT.:D
 
!"EXXTREME"! schrieb:
Es ist nun Mittag, leg dich nen Stündchen hin und träum weiter vom GDDR 4 auf einer HD2600XT.:D

Bist du blind oder willst du hier einfach provozieren? Schau dir das Bild doch an! Das hast du deine HD2600 XT mit GDDR4.
 
w0mbat schrieb:
Bist du blind oder willst du hier einfach provozieren? Schau dir das Bild doch an! Das hast du deine HD2600 XT mit GDDR4.

Mir liegt es fern Dich zu provozieren aber glaube mir, es wird vorerst keine Midrange Karte für den Handel mit GDDR4 Speicher ausgestattet.
Für mich ist das Thema damit abgeschlossen, bevor es hier fies wird:rolleyes: .
 
Ich besitzte eine 8800GTS mit 320 MB von MSI(OC) Das Ding ist schon in gewisser Art und weise ein Hammer. Sie bleibt kühl und sehr ruhig. Klar gibt es hier und da Treiber Probleme aber das hat Nvidia ja bisher immer in den Griff bekommen. ATI hingt meiner meinung stark hinter her. Diese ganzen Vorberichte kann man doch vergessen. Crysis wird es meiner Meinung erst richtig zeigen was die neuen Karten können. Ach ja und solange die Vista nicht richtig in den Griff bekommen wird das Spelevergnügen eh getrübt.
 
Nur macht GDDR4 mit einem 128bit Speicherinterface nicht wirklich Sinn, denn wenn man sich durch das einfacher 128bit SI Kosten spart (da billigeres PCB und weniger aufwendige GPU), wird das durch die teureren GDDR4 Chips wieder aufgefressen.
Mag sein, daß der Chip auch GDDR4 unterstützt, aber die Serienproduktion wird aus Kostengründen wohl mit GDDR3 arbeiten. Beim nächsten Shrink kann man ja dann auf GDDR4 setzten und noch die Taktraten nach oben schrauben. ;)
 
xp-home

die bilder sind nun aber schon etwas älter und es sind vorzeige modelle. möglich das da noch DDR4 aufgezeigt wurde um die werbetrommel zu rühren. schlussendlich wird man es erst dann sicher wissen wenn man die karte in der hand hält. aber wie ich schon sagt und wie es auch chaosmayhemsoap sieht, macht es der Logik wegen einfach irgendwie keinen sinn "seltenen" und teuren DDR4 Speicher an 128bit anzubinden. Mcdonalds nutzt doch auch keine argentinisches Rindfleisch der güteklasse 1 um damit mit ihren pappbrötchen burger zu machen. oO
 
Ich bin auch der Meinung, das es vorerst kein DDR4 für die Midrange-Karten geben wird, da viel zu teuer und nicht gerade leistungssteigernd. Vielleicht, wenn deren Nachfolger auf den Markt kommen.
 
ddr4 macht GERADE mit einem 128bit interface sinn.

warum ? weil man sich das teure 256bit interface sparen kann durch hohen speichertakt.

1000mhz mit 256bit = 2000mhz mit 128bit

kuckt man sich z.b. die x1650xt an : 800mhz. das macht also eine steigerung um fast 200% im selben marktsegment.

Aber man hier sowieso reden wie man will, es wird nichts ändern. gleich kommt eh der nächste, der meint as interface ist zu lahm, obwohl es das garnicht ist.
 
Zurück
Oben