News HIS Radeon HD 7970 X2 IceQ abgelichtet

legendan

Lt. Junior Grade
Dabei seit
Mai 2009
Beiträge
296
#2
Sehr schön :)
 
D

Dawzon

Gast
#3
Brachiales Design, brachiale Leistung (ACHTUNG Glaskugel!) und ein stolzer Preis. So stellt man sich die Dual GPU Variante der HD7970 vor. :D

Mir hätte es ehrlich gesagt mehr zugesagt wenn AMD ein paar Pitcairn GPUs selektiert, diese sehr hoch getaktet und zu zweit auf einem PCB verlötet hätte. Dazu noch eine sehr gute Kühllösung mit Axial Lüftern und butz! Aber nein...:(
 
Dabei seit
Nov. 2009
Beiträge
4.661
#4
Angesichts des bereits zweiten Eigendesigns einer HD 7970 X2 und dem gleichzeitiger Ausbleiben eines Referenzlayouts stellt sich durchaus die Frage, ob AMD eine solche Karte offiziell überhaupt anbieten wird.
Also laut OBR ist die 7990 schon gecancelt und auch um die 7970 X2 Deveil-13 soll es eher schlecht stehen, angeblich gibt's da nämlich diverse Probleme: Klick

Aber wie gesagt die Infos stammen von OBR und der schreibt viel wenn der Tag lang ist...
 

Yakomo

Lt. Commander
Dabei seit
Dez. 2008
Beiträge
1.987
#5
Dieser Przemyslaw Szymanski scheint recht gut informiert zu sein, zumindest in letzter Zeit; danke dafür ^^

Joa, stolzer Preis für eine ebenfalls stolze Graka - in jeder Hinsicht, nicht nur bei den 3x8Pin :)
 
Zuletzt bearbeitet:

DarkWolv

Lt. Junior Grade
Dabei seit
Dez. 2007
Beiträge
370
#6
Cooles Ding, hoffentlich nicht mit Microrucklern gesegnet.

Aber egal ob,leiderausserhalb des Budgets :-)
 
Dabei seit
Apr. 2010
Beiträge
8.365
#7
Das stand doch schon vor einer Woche bei PCGH, das der PCI-e controllchip probleme macht,
und wenn diese PLX chip der wohl extra für pci-e 3.0 ist überall verbaut bei den x2 hat wohl AMD einige arbeit noch zu leisten,
wobei diese Chip auch bei Nvidias gtx690 zum einsatz kommt und wohl gut funktioniert ...

Auf der sehr aufwendigen Custom-Platine sitzen zwei sogenannte "Tahiti 2.0", also XT-Chips die mehr 1.000 MHz erreichen - also genau die GPUs, welche die angeblich in absehbarer Zeit erscheinende Radeon 7970 GHz Edition befeuern sollen. Die beiden Tahiti der Powercolor HD 7970 X2 Devil 13 laufen von Haus aus mit 925/2.750 MHz, also Referenztakt. Ein Druck auf den roten Schalter an der Blende schaltet das Dual-BIOS um (und aktiviert somit eine Rakete, wie Powercolor scherzte) und legt dann satte 1.100 MHz Chiptakt an - das sollte reichen um die Geforce GTX 690 klar zu überholen, die 3 GiByte Hynix-Speicher pro GPU tun ihr Übriges. Derzeit leidet die Grafikkarte jedoch an einem Bug, denn der PLX-Chip will nicht so recht mit den beiden Tahitis zusammenarbeiten, was wohl auch der Grund für die Verzögerung der Radeon HD 7990 ist.
http://www.pcgameshardware.de/aid,8...-Anschluessen-an-die-Spitze/Grafikkarte/News/

Die beiden Rechenkerne auf der Grafikkarte werden mittels eines PCIe-Switchs von PLX mit Daten versorgt. Dieser kann dabei mit dem PCIe-3.0-Standard umgehen, sodass beide Rechenkerne mit voller Bandbreite der 16 PCIe-Lanes des dritten Standards angesprochen werden.
https://www.computerbase.de/2012-05/test-nvidia-geforce-gtx-690/
 
Zuletzt bearbeitet:

The_addi

Lieutenant
Dabei seit
Juli 2011
Beiträge
974
#8
Mir hätte es ehrlich gesagt mehr zugesagt wenn AMD ein paar Pitcairn GPUs selektiert, diese sehr hoch getaktet und zu zweit auf einem PCB verlötet hätte. Dazu noch eine sehr gute Kühllösung mit Axial Lüftern und butz! Aber nein...

AMD sieht wohl da nicht die notwendigkeit, aber vielleicht kommen auch irgendwann so Eigenkreationen alá HD 6870X2 raus.

@ Topic

Die Karte gefällt mir optisch eher als das komische Design von der Devil 13, die sieht aus wie ein fettes Kind. Zu klein geratene Lüfter und zuviel ummantelung.


Bezüglich der Probleme:

Ist PLX der einzige Hersteller, der PCIe 3.0 Switches anbietet?


Bin gespannt ob die Karte/n auf den Markt geworfen werden.
 
Dabei seit
Aug. 2008
Beiträge
4.951
#9
Ich könnte mir vorstellen, dass AMD die mutmaßliche 7990 nach dem sie begriffen haben -was- sie da mit der GTX690 für einen Gegner haben, nochmal komplett zurück ans Reißbrett geschickt haben. Oder gleich ganz abgeschrieben.
Die GTX690 ist seit ihrem unseligen Urahnen 7950GX2 überhaupt das erste mal, dass eine nVidia X2 Karte dem AMD Pendant (wobei das ja noch nicht erschienen ist) komplett überlegen ist. Und zwar in allen Belangen.
Vorher waren sie irgendwie entweder absurd teuer, superheiß (590,9800GX2), Chinaböller (9800GX+590!) oder gnadenlose Speicherkrüppel (also wirklich! vor allem die 7000 und die 9000).
Aber jetzt... Man kann höchstens den Speicher bemängeln - aber nur in extremen Szenarien, der mittleren Zukunft oder wenn man HisN ist.
Das Ding braucht recht wenig Strom, ist verhältnismäßig leise, hochwertig verarbeitet, absurd schnell und hat die Mikroruckler im wahrnehmbaren Bereich im Prinzip ausgelöscht.
Wenn das Teil nicht ebenso absurd teuer wäre, hätte ich eine.

Ich nehme mal an AMD hatte folgendes in der Pipeline:

Same procedure as every year - man nimmt zwei vollausgebaute Chips des jeweiligen High End Modells und stellt sich dann der unheimlichen Ingenieursleistung zwei davon mit einem PCIe Switch auf ein PCB zu klatschen. Dazu kommt ein potentiell zu winziger Kühler mit Radiallüfter. Und das war's auch schon.

Was soll man da außer der brachial überlegenen GPGPU Leistung und 500mb mehr RAM der GTX690 entgegen setzen?


Und deshalb hat AMD das Ding vorerst verschoben oder irgendwas damit gemacht und es den Boardpartnern überlassen da was zu basteln, damit die langjährigen AMD Partner was gegen die 690 haben.
Und bitte... Das ist kein Fanboy Post. Versuche das möglichst objektiv zu sehen.
 

injemato

Lt. Commander
Dabei seit
Jan. 2012
Beiträge
1.631
#10
in etwa zwei jahren wird dann die leistung dieses "dual-gpu-schlachtschiffes" auf einer single-chip-graka völlig normal sein und nur die hälfte an strom verbrauchen.
dennoch tolle entwicklung.
bitte nicht "wer braucht sowas?"-"um gottes willen, bei dem preis!"-"krimineller stromverbrauch!".
niemand wird zum erwerb gezwungen.

grüße
 

The_addi

Lieutenant
Dabei seit
Juli 2011
Beiträge
974
#11
Same procedure as every year - man nimmt zwei vollausgebaute Chips des jeweiligen High End Modells und stellt sich dann der unheimlichen Ingenieursleistung zwei davon mit einem PCIe Switch auf ein PCB zu klatschen. Dazu kommt ein potentiell zu winziger Kühler mit Radiallüfter. Und das war's auch schon.
Aber auch nVidias Schmiede hats genau so gemacht: Siehe 9800GX2, GTX295 Rev1 und GTX590.

Alles schreihälse, wobei die 590er ja etwas zurückhaltender war wegen dem Axiallüfter.

Von daher begrüße ich es eigentlich, wenn sich die Hersteller mal dran versuchen, solch eine Karte zu entwickeln mit halbwegs potenter Kühlung. Auch wenn der Preis dann ensprechend aussieht.

Und leiser sein wird, als zum beispiel ein CF Gespannt aus zwei HD7970. Und weniger Platzanspruch hat.


Und natürlich: Die GTX690 ist wahrlich eine geniale Karte. Bis auf die Speichermenge, denn wenn ich mir eine Karte in der Preislage kaufen will, dann will ich absolut keine Kompromisse eingehen, denn für das Geld erwarte ich, das die Karte Bäume aus dem Boden reißt, bei jedem Setting und bei jeder Auflösung.

Mal sehen wie sich die X2 schlägt, wenn sie denn rauskommt
 
Zuletzt bearbeitet:

N.t.H.

Lieutenant
Dabei seit
Mai 2012
Beiträge
780
#12
Ich persönlich begrüße die Entwicklugn der 7970x2
Stellt euch mal vor: 2 Tflops double precision! Wenn das nicht mal in Workstations Platz findet.
AMD ist ja schon mit der 7970 GhZ edition auf dem Weg zur ersten single-GPU TFlop dp Karte (und wird das auch hoffentlich so vermarkten).


bitte nicht "wer braucht sowas?"-"um gottes willen, bei dem preis!"-"krimineller stromverbrauch!".
niemand wird zum erwerb gezwungen.
Damit hast du alle Nv-Fanboys sauber in einem Satz untergebracht, Glückwunsch dafür :D

Übrigens komisch, dass die NVs die AMD-News quasi meiden, oder habe ich da was übersehen?
 

Haldi

Rear Admiral
Dabei seit
Feb. 2009
Beiträge
5.396
#13
Mhmm, warum verbauen die nur ein DL-DVI und 4x miniDP ? Es ist eine TripleSlot Kühlung. Und zwei slots sind einfach nutzlos offen? Und soll mir keiner erzählen das dies zur Luftabfuhr ist! Die karte ist überall auf der Seite offen und der Luftstrom nicht irgendwie bestimmt richtung ausgang gerichtet.

Es war wohl einfach zu kompliziert eine 2x DL-DVI +4x miniDP zu verbauen. :(
karten mit 3x DL-DVI oder nur schon 3x Sl-DVI gibt es auch nirgends oder?


Edit: Nein nein, N.t.H. die sind nur gerade beschäftigt Samsung oder Apple zu flamen ;)
 
Dabei seit
Apr. 2010
Beiträge
8.365
#14
@Haldi ich finde da sind die Monitorentwickler angesprochen und nicht der Grafikkartenhersteller,
ab 27" bzw. 2560x1440 sollte jeder Monitor auch einen DisplayPort-Anschluss haben.
 

Rock Lee

Lt. Commander
Dabei seit
Apr. 2011
Beiträge
1.457
#15
Ich frage mich immer was die Hersteller mir ihren komischen Kühlerverkleidungen haben!? Würde man den Rand noch etwas dünner gestalten oder gar weglassen, hätte man noch etwas größere Lüfter nehmen könne, was wiederum der Kühlleistung zugute kommen würde. Kann mir nicht vorstellen, dass irgendwer eine Grafikkarte einer anderen vorzieht weil der Kühler so toll aussieht :freak:
 
Dabei seit
Juni 2009
Beiträge
2.644
#16
Die Kühlung sieht mir nach MARS II aus :)
 

feris

Commander
Dabei seit
Aug. 2008
Beiträge
2.498
#17
1000 EUR?
Das waren mal runde 2000 DM.
Für eine Grafikkarte? LOL
 

IronAge

Lt. Commander
Dabei seit
Nov. 2007
Beiträge
1.572
#18
Sind praktisch zwei Karten, die den "Mehrwert" bieten nur zwei Slots zu belegen.

So eine Eigenentwicklung lässt man sich gerne gut bezahlen.

Angesichts der eingesparten Bauteile müsste die Karte günstiger sein als zwei HD7970.
 

N.t.H.

Lieutenant
Dabei seit
Mai 2012
Beiträge
780
#19
@ IronAge

Hab Ich was verpasst? Ich dachte immer, dass Es eigentlich voll der Aufwand ist, 2 Graka-PCBs auf eins zu kriegen...
Dass nVidias Gtx 690 teuerer ist als 2 680 kommt davon, dass in der Leistungsklasse keine Konkurrenz anwesend ist. Aber eigentlich werden Dual-GPU Karten immer günstiger als 2 vollausbau-Grafikkarten verkauft, gerade weil die Chips leistungsmäßig beschnitten sind und man die Karte ja noch irgendwie an den Mann bringen muss. Aber da die gtx 690 mit der x2 geschlagen wird, darf sich AMD oder der Boardpartner dann auch den exorbitanten Preis eintreiben :D
 

computer11

Lt. Junior Grade
Dabei seit
Nov. 2008
Beiträge
338
#20
Dieser Przemyslaw Szymanski scheint recht gut informiert zu sein, zumindest in letzter Zeit; danke dafür ^^

Przemyslaw Szymanski ist Admin vom ATI Forum. Auch wenn es dort tot ist, sein Wissen / Hobby bleibt. ^^
Die Karte schaut nicht schlecht aus, müsste man aber mal schauen wie die tatsächliche Leistung von dem Teil ausschaut.
 
Top