News PowerColor zeigt Radeon HD 3870 X2 mit GDDR4

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.621
Nachdem man auf diversen Messestände Radeon-HD-3870-X2-Karten mit anderen Kühlsystemen oder leicht höheren Taktraten zu Gesicht bekommt, zeigt PowerColor im stillen Kämmerlein die Dual-GPU-Karte mit GDDR4-Speicher.

Zur News: PowerColor zeigt Radeon HD 3870 X2 mit GDDR4
 
Na ob dieser vorteil was bringt ?

denke mal wird ähnlich gering ausfallen wie bei der 2600xt 3 und 4 ...
 
Ich finde, die kommen damit zu spät. Soll im Juni nicht schon die nächste Generation released werden? Ich habe meine X2 diese Woche bestellt. Von Sapphire für 324€. Wer jetzt meint, auf die GDDR4-Variante warten zu müssen, der kann auch gleich voll bis Juni sparen und dann zuschlagen.

Zumal die nächste Generation unter Idle schön spritsparend sein soll :)
 
@3: genau so schauts aus... die paar monate kann man auch noch rumruckeln ;)

was lange währt wird endlich gut ;)
 
Wtf ist das die gleiche Karte auf den Bildern?
Die eine hat 3xDVI + 1x HMDI oder? Die mit Kühlkörper hat nur noch eine Reihe für die Anschlüsse...
Der Unterschied zur normalen HD3870X2 mit GDDR3 dürfte sehr gering sein.
 
Also ich sitze seit Monaten in den Startlöchern, um mir eine neue GraKa zu kaufen. Der lahme RAM bei der X2 hat mich abgeschreckt, da ich 1920*1200 nutze und die Karte daher, die ohnehin nur ein 256bit Interface hat, auf hohe Speicherbandbreite angewiesen ist. Eine frisierte Variante der GDDR4 mit 875/1200, da könnte ich schon schwach werden.
 
Für 440 Euro bekommt man im April sicher schon 3 Einzelkarten der HD3870 512MB DDR4
 
Endlich darauf habe ich gewartet. GDDR4 und etwas kleiner als der Vorgänger.

Hat nicht GDDR4 den Vorteil das er weniger Spannung/Strom braucht?
Damit könnte man viell. 1 Watt sparen;)

Was mich bis jetzt an der Karte stört ist der zu hohe Startpreis von 440 Euro.

Bis die Karte zu Humanen Preisen verfügbar ist, kommen schon die neuen Grakas.

Insgesamt finde ich den Ansatz von PowerColor gut.
 
Was nützt der GDDR4 wenn die Karte zu langsam ist bzw auf gut skalierende Spiele angewiesen ist. Nun kommt der nächste Hammer von Nvidia auf Singlechipbasis..
Von SLI oder Crossfire halte ich eh nichts, da die Technik meines Erachtens alles andere als ausgereift ist! MultiGPU konnten damals die VodooKarten besser!
Als ATI Fan werd ich wohl umsteigen müssen. Der Abstand wird ja immer größer!
 
Bin ja gespannt ob sich da was am Stromverbrauch getan hat durch das kleinere Design und GDDR 4. Wenn die Karte wieder 2x 512mb haben wird dann sind 440€ viel zu übertrieben.

Allerdings braucht die Karte dringend bessere Treiber die das Macroruckeln mindern, da aber AMD schon gesagt hat, das es nicht über die Treiber lösbar ist, werde ich mir keine SLI bzw. CF Karte kaufen.
 
Soweit ja ganz nette vorteile.Schön ist vor allem das sie kleiner ist. Einziger Haken wieder der Preis. Ok in das sie 2x 6pin hat statt 6 und 8. Oder ist da snur die UVP? Dann denk ich wären die Straßenpreise so um die 380 EUR, was wenn sie wirklich nen bisschen mehr bringt ja voll ok wäre

Gruss Jens
 
die karte scheint mir sehr gut durchdacht zu sein. der kühler der 7900gtx war ja schon genial, dann wird dieser wohl auch nich so schlecht sein ;) die zusätzliche speicherbandbreite könnte sich in den sehr hohen auflösungen in denen die karte ja erst wirklich sinn macht^^ positiv auswirken. und auch die kleinere bauweise spricht dafür dass sich powercolor echte gedanken gamacht hat.
leider kommt die karte wie schon einige hier sagten recht spät, da die nächste generation unmittelbar bevorsteht. und der preis... damit wird die wohl eher kein renner werden, denn so groß wird der unterschied zu den jetzigen karten die schon für unter 350,- € zu haben sind wohl nich sein...
 
ich weiss gar nicht wo die karte kleiner sein soll
sie ist zwar etwas kürzer, dafür aber deutlich höher

die fläche dürfte kein stück kleiner sein
 
warum haben sie die nicht gleich von anfang an mit GDDR4 gebaut?
@bensen hattest du schon jemals eine GTX oder Ultra in deinem PC?
wahrscheinlich nicht sonst würdest du dir diesen kommentar sparen
von der breite her hatte noch kein mensch probleme, aber mit der länge schon!
daran sind aber auch die gehäusehersteller schuld
 
Ich glaube hier geht es nicht nur um die Schnelligkeit, wenn dies überhaupt beabsichtigt war, sondern um die Längen Einsparung der Karte und um den Sinkenden Verbrauch, ich denke deswegen gibt es auch nur noch 2x 6 pin und nicht 1x 6 + 1x 8, insofern das mit der Leistungsaufnahme auch zusammen hängt, klinkt für mich allerdings logisch. PC User mit kleinen Gehäusen werden sich bestimmt freuen ;)
 
ui naja 390€ für ne high-end karte^^ das kommt langsam in den erwarteten rahmen
440€ währen echt zu hart - ich wart trotzdem lieber auf die hd4870x2 :D
ein grund is der treiber 8.3 dem ich erstmal bei der arbeit zuschaun will
 
GDDR4 Ram war nicht unbedingt günstig für ATI, zumal man versuchen musste sich eher im Middle Range Bereich zu behaupten.
Der Unterschied wird kaum merklich sein, trotz vielleicht höherer Taktraten des Speichers, da die Treiberoptimierung wieder schleppend vorangehen wird. Wenn im Sommer dann der Release der R700 Generation ansteht ist es auch zu spät ;-)
 
@ Ricky_b welcher Abstand? Die neuen Geforce Karten sind genauso verbugt wie die alten und Geschwindigkeit ist nun mal nicht alles was nutzt dir eine Karte die zig tausend 3Dmurks schafft aber bei jedem zweiten Spiel abschmiert weil Nvidia ihre Schrottkarten Treibermäßig nicht in Griff kriegt.
 
@devilinside
weiss nicht was du von mir willst
die ist eben nicht kleiner sondern nur kürzer. das ändert sich auch nicht wenn es im gehäuse knapp wid

und nein, mein karte ist nur 23cm lang. aber in meinem midi-tower passen auch karten mit 36cm länge ;)
 
Zuletzt bearbeitet:
Zurück
Oben