News Gigabyte, Sapphire und MSI zeigen Radeon HD 6990

Arikus schrieb:
Schade, dass Gigabyte mit den neuen Boards (gerade bei den OC Boards) keine WaKü Anschlüsse mehr auf den Kühlern hat.
Das OC Board beschränkt sich auch nur auf das wesentliche, es fehlen nicht nur die WaKü-Anschlüsse sondern auch die 2. LAN Karte welche ab GA-xxxx-UD5 Standard ist und der 6CH Sound welcher bei so gut wie allen Boards zur Grundausstattung gehört. Die Farbkombi ist nett, aber das GA-P67A-UD7 gefällt mir noch besser. Und bietet die umfangreichere sowie rundere Austattung. Wird aber wohl nicht so gut zum Taktrekorde jagen geeignet sein.

Übrigens wurde mit dem X58 OC bereits ein neuer Rekord aufgestellt, 7,1GHz mit einem i7 990x. :D
 
Zuletzt bearbeitet:
Wahrscheinlich kann man sich ohne den Plexiglaskasten nicht nähern, da man sonst einen Gehörschaden davon trägt ;)
 
HOOKii schrieb:
Hast du eine Glaskugel? Das ist wahrscheinlich wieder so eine vorgefertigte Meinung von Dir. Ich wette, du hattest noch nie eine DualKarte.:freak:

Es gibt keinen Grund, gleich so persönlich zu anderen zu werden.

Ich hab eine Dual-GPU-Karte und ja, es gibt auch da Mikoruckler.
 
Dr. MaRV schrieb:
Das OC Board beschränkt sich auch nur auf das wesentliche, es fehlen nicht nur die WaKü-Anschlüsse sondern auch die 2. LAN Karte welche ab GA-xxxx-UD5 Standard ist und der 6CH Sound welcher bei so gut wie allen Boards zur Grundausstattung gehört. Die Farbkombi ist nett, aber das GA-P67A-UD7 gefällt mir noch besser. Und bietet die umfangreichere sowie rundere Austattung.

Genau, stimmt der Preis ist es genau das was ich will...

Ich b rauch keine zweite LAN-Karte, kein extra superduper Sound (Hab ne X-Fi), keine WaKü Anschlüsse... theoretisch hat Gigabyte das Board für mich gebaut, sofern der Preis stimmt ^^
 
wenn ich die karte sehen, muss ich sofort an die xfx hd5970 black edition denken -> die ist ohrenbetäubend laut
 
Omg, wieder einer dieser quirliger und lästiger Radiallüfter. Was denkt sich eigentlich der Hersteller dabei, eine 500 + € Karte mit einer solch schlechten und lauten Kühlung auszustatten?!

Kommt mir jetzt bloss nicht mit Wakü, denn dann ist sofort die Garantie im Eimer. ^^
 
Ist wirklich eine berechtigte Frage, bei so hochpreisigen Produkten sollte man es eigentlich erwarten dürfen. Aber vermutlich bedeutet er einfach weniger Aufwand, um die leise Kühlung können sich dann ja die Boardpartner/Kühlungsexperten kümmern, Kernkompetenz und so ;-) Denn wenn die Kühlung schon von Anfang an perfekt ist, haben die Boardpartner keine möglichen Alleinstellungsmerkmale mehr (vllt noch die Farbe des PCB^^), und die wollen schließlich bei der Stange gehalten werden!
 
Omg, wieder einer dieser quirliger und lästiger Radiallüfter. Was denkt sich eigentlich der Hersteller dabei, eine 500 + € Karte mit einer solch schlechten und lauten Kühlung auszustatten?!

Vielleicht denkt er sich "Die Board-Partner sollen das machen, unser Design ist nur für Prototypen." Wer weiss.

Über Leistungsaufnahme rege ich mich nicht mehr auf, die Spitzenkarte zieht eben 300 Watt und wird praktisch nich verkauft. Wichtig ist, dass die Rechenleistung/Watt und der idle-Verbrauch halbwegs passen.
 
1x DVI und 4x Displayport.
Wie siehts mit HDMI aus? Ist doch echt grottig. Und dann noch ein Radiallüfter und
2*8 -Pinanschluss.
 
Nur mal so, 2 DVI/HDMI/VGA Singale gingen schon bei der Vorgängergeneration. Hier wird es nicht anders sein, also gibts dazu Adapter. Angekündigt war auch mal das alle DP ports abwärtskompatibel werden sollen.

Zu den Mikrorucklern... bei der 4870 X2 gab es den Versuch das einzudämmen, man wollte die GPUs mit einem Sideport zusammenschließen und so quasi eine DualCOre Gpu basteln, allerdings hätte das damals schon 2 8 pin bedeutet und den schritt wollte man nicht gehen...

Es wäre aber möglich das die GPUs ähnlich wie die Bulldozer CPUs irgendwann aus modulen bestehen...
 
nettes Teil, für meinen Geschmack zu wenig Anschlüsse...
aber ob das nun MiniDP oder sonst was ist, ist doch völlig Latte - dafür gibts alle möglichen Adapter.
Bin ja gespannt ob da noch andere Versionen kommen mit nur MiniDP oder so, ähnlich zur HD5870 EF6.
 
HOOKii schrieb:
Hast du eine Glaskugel? Das ist wahrscheinlich wieder so eine vorgefertigte Meinung von Dir. Ich wette, du hattest noch nie eine DualKarte.:freak:

Was hat dich denn zu dieser Aussage gebracht ? :freak: Wenns jetzt auf einmal keine ruckler mehr geben sollte hätten die Hersteller sicher Werbung damit gemacht ;)
 
Irgendwie interessiert mich die Karte weniger, als das Gigabyte-Board....
Die Farbgebung is ja mal so richtig geil...
Da muss man nen Mod drum aufbauen.
 
ja das dauert nicht mehr lange bis die 7er Serie kommt. Schönes Teil , die X2 könnte man bei der Bezeichnung dahinterhängen^^
 
Das wird nicht machbar sein, dazu müsste man Takt und Spannung extrem absenken, die hälfte des RAMs und eine GPU deaktivieren. Ob das alles so ohne Probleme möglich ist? Ich tippe auf 40W+ im Idle. Darunter wird es nicht gehen würde ich mal schätzen.
 
maxpayne80 schrieb:
Meinst nicht eher die Ultra? :)

Das war damals schon geil, da wurde ja beim Design nur auf Leistung, nicht auf Stromaufnahme geschaut :P

Deswegen war es auch ATi die zu der Zeit den höheren Stromverbrauch hatten..

https://www.computerbase.de/artikel...xt-test.648/seite-35#abschnitt_stromverbrauch


HOOKii schrieb:
Hast du eine Glaskugel? Das ist wahrscheinlich wieder so eine vorgefertigte Meinung von Dir. Ich wette, du hattest noch nie eine DualKarte.:freak:

lol manche Leute müssen mal verstehen, dass dual GPU Karten nichts weiter als SLI oder CF sind, halt nur auf einem PCB.
Nur weils auf einem PCB kombiniert ist, heisst es nicht dass die Karte wie ne Single GPU agiert und die µRuckler verschwinden.. Ist im Prinzip ein SLI/CF System nur auf einer Karte.

Als SLI Besitzer muss ich dennoch sagen, dass mir µRuckeln noch nie aufgefallen ist.
 
Zuletzt bearbeitet:
HOOKii schrieb:
Hast du eine Glaskugel? Das ist wahrscheinlich wieder so eine vorgefertigte Meinung von Dir. Ich wette, du hattest noch nie eine DualKarte.:freak:

Hattest du schon mal MultiGPU?

Ich schon, hatte CrossFire mal am laufen, sowas werde ich mir nie wieder antun!
Lieber eine SingleGPU welche ich eben früher wieder tausche, auf MultiGPU mit µRuckler (egal ob von AMD oder Nvidia) kann ich verzichten!

Solange AFR genutzt wird, wird sich da nichts bessern.
 
Oo ziemlich lang die Karte wobei das Mobo wohl nur M-ATX ist.

Diese Kühlkonstruktion mit nur einem 80/92er Lüfter kann nichts taugen, da sollte man auf Custom Designs warten.
 
Zurück
Oben