Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Nachdem man auf diversen Messestände Radeon-HD-3870-X2-Karten mit anderen Kühlsystemen oder leicht höheren Taktraten zu Gesicht bekommt, zeigt PowerColor im stillen Kämmerlein die Dual-GPU-Karte mit GDDR4-Speicher.
Ich finde, die kommen damit zu spät. Soll im Juni nicht schon die nächste Generation released werden? Ich habe meine X2 diese Woche bestellt. Von Sapphire für 324€. Wer jetzt meint, auf die GDDR4-Variante warten zu müssen, der kann auch gleich voll bis Juni sparen und dann zuschlagen.
Zumal die nächste Generation unter Idle schön spritsparend sein soll
Wtf ist das die gleiche Karte auf den Bildern?
Die eine hat 3xDVI + 1x HMDI oder? Die mit Kühlkörper hat nur noch eine Reihe für die Anschlüsse...
Der Unterschied zur normalen HD3870X2 mit GDDR3 dürfte sehr gering sein.
Also ich sitze seit Monaten in den Startlöchern, um mir eine neue GraKa zu kaufen. Der lahme RAM bei der X2 hat mich abgeschreckt, da ich 1920*1200 nutze und die Karte daher, die ohnehin nur ein 256bit Interface hat, auf hohe Speicherbandbreite angewiesen ist. Eine frisierte Variante der GDDR4 mit 875/1200, da könnte ich schon schwach werden.
Was nützt der GDDR4 wenn die Karte zu langsam ist bzw auf gut skalierende Spiele angewiesen ist. Nun kommt der nächste Hammer von Nvidia auf Singlechipbasis..
Von SLI oder Crossfire halte ich eh nichts, da die Technik meines Erachtens alles andere als ausgereift ist! MultiGPU konnten damals die VodooKarten besser!
Als ATI Fan werd ich wohl umsteigen müssen. Der Abstand wird ja immer größer!
Bin ja gespannt ob sich da was am Stromverbrauch getan hat durch das kleinere Design und GDDR 4. Wenn die Karte wieder 2x 512mb haben wird dann sind 440€ viel zu übertrieben.
Allerdings braucht die Karte dringend bessere Treiber die das Macroruckeln mindern, da aber AMD schon gesagt hat, das es nicht über die Treiber lösbar ist, werde ich mir keine SLI bzw. CF Karte kaufen.
Soweit ja ganz nette vorteile.Schön ist vor allem das sie kleiner ist. Einziger Haken wieder der Preis. Ok in das sie 2x 6pin hat statt 6 und 8. Oder ist da snur die UVP? Dann denk ich wären die Straßenpreise so um die 380 EUR, was wenn sie wirklich nen bisschen mehr bringt ja voll ok wäre
die karte scheint mir sehr gut durchdacht zu sein. der kühler der 7900gtx war ja schon genial, dann wird dieser wohl auch nich so schlecht sein die zusätzliche speicherbandbreite könnte sich in den sehr hohen auflösungen in denen die karte ja erst wirklich sinn macht^^ positiv auswirken. und auch die kleinere bauweise spricht dafür dass sich powercolor echte gedanken gamacht hat.
leider kommt die karte wie schon einige hier sagten recht spät, da die nächste generation unmittelbar bevorsteht. und der preis... damit wird die wohl eher kein renner werden, denn so groß wird der unterschied zu den jetzigen karten die schon für unter 350,- € zu haben sind wohl nich sein...
warum haben sie die nicht gleich von anfang an mit GDDR4 gebaut?
@bensen hattest du schon jemals eine GTX oder Ultra in deinem PC?
wahrscheinlich nicht sonst würdest du dir diesen kommentar sparen
von der breite her hatte noch kein mensch probleme, aber mit der länge schon!
daran sind aber auch die gehäusehersteller schuld
Ich glaube hier geht es nicht nur um die Schnelligkeit, wenn dies überhaupt beabsichtigt war, sondern um die Längen Einsparung der Karte und um den Sinkenden Verbrauch, ich denke deswegen gibt es auch nur noch 2x 6 pin und nicht 1x 6 + 1x 8, insofern das mit der Leistungsaufnahme auch zusammen hängt, klinkt für mich allerdings logisch. PC User mit kleinen Gehäusen werden sich bestimmt freuen
ui naja 390€ für ne high-end karte^^ das kommt langsam in den erwarteten rahmen
440€ währen echt zu hart - ich wart trotzdem lieber auf die hd4870x2
ein grund is der treiber 8.3 dem ich erstmal bei der arbeit zuschaun will
GDDR4 Ram war nicht unbedingt günstig für ATI, zumal man versuchen musste sich eher im Middle Range Bereich zu behaupten.
Der Unterschied wird kaum merklich sein, trotz vielleicht höherer Taktraten des Speichers, da die Treiberoptimierung wieder schleppend vorangehen wird. Wenn im Sommer dann der Release der R700 Generation ansteht ist es auch zu spät ;-)
@ Ricky_b welcher Abstand? Die neuen Geforce Karten sind genauso verbugt wie die alten und Geschwindigkeit ist nun mal nicht alles was nutzt dir eine Karte die zig tausend 3Dmurks schafft aber bei jedem zweiten Spiel abschmiert weil Nvidia ihre Schrottkarten Treibermäßig nicht in Griff kriegt.