News PowerColors Radeon-Monster eine erste HD 7970 X2

Ich wette auf mehr als 1000mhz Takt bei nem Preis von 999$ aufwärts!

War doch eine 1000 Stück Limitierte Serie oder ?
Dann brauchen wir uns über die Umweltschädlichkeit ja gar keine gross gedanken zu machen ;)




Christi schrieb:
ati zeigt was technisch geht- ok! nur keiner zieht mit.

Und ich dachte das sei ein Custom PCB von Powercolor, weil es keine 7970 X2 sondern nur eine HD7990 vom ATI geben wird ?

https://pics.computerbase.de/4/1/4/1/7/2-1080.3351558045.jpg

Dieser Rote knopf.... das ist schon ein Knopf und keine Leuchte oder? Sicher der Reset Knopf wenn beim OC was schief läuft!
 
Naja, nur weil die 3x8Pin Stromanschlüsse hat, heißt dass ja noch lange nicht dass die gleich 525W zieht.
Die HD 6870 hat doch auch 2x6Pin, obwohl nur einer genug wäre.
Dient wohl zur "Sicherheit" falls man halt ein bisschen an der Taktschraube rumspielen will oder so.
 
Der Name passt. Die Karte wird heiß wie die Hölle. :D
Lol, was macht "Elizabeth" auf dem Bild?
 
sehr feines stück hardware!
wird sicher eine eigene käufer- und fangemeinde geben.

grüße
 
Hätte man nicht so nen Haufen Platik um den Kühler geklatscht, dann hätte man auch 3*92mm Lüfter installieren können.

So wie ich das sehe sind das aber 3*80mm Lüfter die gut laut sein werden.
 
Haldi schrieb:
Und ich dachte das sei ein Custom PCB von Powercolor, weil es keine 7970 X2 sondern nur eine HD7990 vom ATI geben wird ?

AMD Radeon HD 7970 X2 von powercolor wird se heißen. alles andere macht keinen sinn. aber wir werden es früh genug erfahren. spätestens zur computex
 
Zuletzt bearbeitet:
Ich wette auf mehr als 1000mhz Takt bei nem Preis von 999$ aufwärts!

X2 waren noch nie übertaktet, soweit ich mich erinnere. Allerdings soll ja eine offizielle 7970 mit 1Ghz raus kommen. Vielleicht machen die das da schon. Im Übrigen ist 1Ghz nix. Dafür braucht man nicht mal die Vcore erhöhen

Ich tippe bei der Karte mal auf 450Watt bei Last. Man muss aber bedenken, dass ATI eine Steigerung der Leistungsaufnahme um bis zu 20% per Treiber zulässt. Wahrscheinlich deswegen die drei Anschlüsse
 
Zuletzt bearbeitet:
Auch wenn konsolengrafik gröstenteils rauskommt kann man teilweise ja 8xaa downsampling erzwingen.
Dann wird 3d ja auch interessant für den ein oder anderen wo man auch mal eben die doppelte Leistung braucht.
Also ich denke es gibt auch mit Konsolengames genug Einsatzgebiete wo diese Grakas Sinn machen.

Ich hoffe ja das die 4k Auflösung sich von den TVs schnell im Pc Monitor bereich breitmacht, den hier hat man wenigstens auch nen nutzen in Games.
Hardware dafür ist ja vorhanden :D
 
Manche haben es immer noch nicht begriffen. Das ist so was wie mit den lightning-Karten oder den Mars-Karten. Die kaufen sich leute, die das beste haben wollen, was es gibt und sind bereit, den (unangemessen hohen) Preis zu zahlen. Die Leistung brauchst du im Momment nicht und wenn du sie vllt brauchst, gibts schon schnellere Single-GPUs.

Noch zum preis: Für andere Hobbys gibt man viel mehr aus. Z.B. Golf oder Autos.
 
Zuletzt bearbeitet:
@Thejoker: Korrekt, dazu kommt dass solche Geräte dem Hersteller (Powercolor) Prestige bringen. "Seht an was wir können".

An die Strom-Nörgler: Für den Strom von einem Mal Kuchen backen kann man ein Ultra High-End System mit X2 für mehrere Stunden voll auslasten. Und wenn die Freundin ihre Haare föhnt braucht sie ein Vielfaches von dem Strom eines solchen PCs. Also mal auf dem Teppich bleiben.
 
Die Leistung brauchst du im Momment nicht und wenn du sie vllt brauchst, gibts schon schnellere Single-GPUs.

Was für schnellere Single-GPUs ? Meinst Du die Entwicklerkarten ?

Die Lightnings bringen bei dem Chip tatsächlich nichts, außer angeblich weniger Spulenfiepen. Die Mehrleistung einer X2 könnte ich aber schon gut gebrauchen. Bei Skyrim mit HD Textures und 4xMSAA hab ich in der Landschaft 30-40fps.
Andere Leute wollen 3D haben, wofür man nochmal das Doppelte braucht.
Der Preis wird nach kurzer Zeit auch nicht höher sein, als der zwei einzelner Karten
 
Zuletzt bearbeitet:
Einzelkarte: AMD oder Nvidia.
Multi-GPU: Nvidia.

Nvidia geht immerhin aktiv gegen Mikroruckler vor, AMD hingegen überhaupt nicht.
Von daher ist Crossfire für anspruchsvolle Spiele inkl. Spielesettings, welche die Grafikkarten wirklich fordern, keine Lösung.

Ich zitiere mal Computerbase selbst:

"Zu guter Letzt haben auch die Southern-Island- sowie die Kepler-Grafikkarten immer noch mit unschönen Mikrorucklern zu kämpfen. Nvidia geht lobenswerter Weise aktiv dagegen vor und schafft es erfolgreich, die Ruckler zu mindern. Beseitigt haben die Kalifornier diese aber nicht. AMD hat bis jetzt noch nicht einmal etwas dagegen unternommen, was durchaus enttäuschend ist. Man kann zwar Spiele erwischen, in denen die Ruckler überhaupt nicht oder nur minimal zu spüren sind, in manchen Titeln (zum Beispiel Serious Sam 3) kommt aber kein echter Spielspaß auf.

Und damit raten wir nur erfahrenen Nutzern mit sehr hohen Ansprüchen (Eyefinity/Surround-Auflösungen, starker SSAA-Einsatz oder Downsampling) sich die Anschaffung eines CrossFire- oder SLI-Systems überhaupt zu überlegen. Alle anderen Spieler sind mit einer einzelnen GeForce GTX 680 oder Radeon HD 7970 besser bedient, zumal beide 3D-Beschleuniger auch im Einzelbetrieb eine sehr hohe Leistung und damit sehr hohe Einstellungen erlauben.

Wenn es zwei Grafikkarten sein sollen, tendieren wir eher zu Nvidias SLI-Technologie: Sie ist vor allem in Bezug auf Mikroruckler problemloser. Allerdings sollte man sich besser eine Partnerkarte mit einem eigenen Kühler kaufen, da das Referenzdesign im Doppelbetrieb bei Nvidia sehr laut und bei AMD extrem laut wird."


https://www.computerbase.de/2012-04/kurztest-gtx-680-sli-vs-hd-7970-cf/8/
 
Wird es Devil13 auch in Kombo mit Diablo III geben, das wär sicherlich ein höllisches Vergnügen. ^^
Also ich als Diablo III Zocker würde mir die Karte schon fast wegen den Namen kaufen wollen. XD

@Jeppo
Ich hab auch ein Multi GPU System mit AMD Karten und bin voll zufrieden. Ich versteh das Geblubber mit den Microrucklern nicht. Die hab ich das letzte mal bei einem SLI Gespann bestehend aus zwei 7600GS Karten gesehen, seit 9600GT SLI oder HD4870 CF, hatte ich keine Probs mehr damit.
 
Zuletzt bearbeitet:
hatte auch lange ein CF aus 4850er 1GB,
und das ist lange sehr gut gelaufen,
konnte auch nie microruckler feststellen,
den bei den meißten games ruckelt es immer irgendwann an irgendeiner stelle im spiel,
was aber meiner meinung entweder auf den rest der hardware oder auf die programmierung des games zurück zu führen ist.


was braucht man den bei so einem monster für eine cpu,
um nicht ins cpu limit zulaufen?

ivy@6ghz ?
 
SSAA 24x edge detect reicht wohl schon bei den meisten spielen in Full HD...^^
 
Wenn die Karte jetzt noch mit je 1.1GHZ getaktet ist, dann ist sie so gut wie gekauft.

Und max. nur 525 Watt? Die GTX 590 hat ja schon 520 Watt unter Last verbraucht, da wird die X2 wohl nicht hinkommen, denke der Stromverbrauch wird zwischen 450 und 480 Watt liegen.
 
Vitec schrieb:
Auch wenn konsolengrafik gröstenteils rauskommt kann man teilweise ja 8xaa downsampling erzwingen.
Dann wird 3d ja auch interessant für den ein oder anderen wo man auch mal eben die doppelte Leistung braucht.
Also ich denke es gibt auch mit Konsolengames genug Einsatzgebiete wo diese Grakas Sinn machen...

Dem kann ich zustimmen!

Demnächst ist bei mir ein 27" Asus @ 120 HZ fürs 3D gaming im Plan.
Da komme ich jetzt schon ins Schwitzen wenn ich an meine 480er denke.

Selbst auf meinem 22" und etwas tweaken (downsampling/SGSSAA o.ä.) wirds damit schon extrem eng.

GPU Power kann nie groß genug sein, wenn man diese auch entsprechend zu nutzen vermag.

Ich hoffe AMD greift das Thema Mikroruckler @ Dual GPU endlich mal auf und sagt Nvidia damit den Kampf an.

Das wäre mMn viel entscheidender als Brechstange und 5% fps mehr rauszuprügeln.
 
Leute, schon mal daran Gedacht , dass es Menschen gibt die solche Dual-Gpu-Karten nicht zum Spielen sondern fürs Rendern usw. "Misshandeln" ???
 
Zurück
Oben