Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen

Schon, aber dadurch geht doch der Vorteil der kurzen Karte (nämlich die Größe, wer hätte es gedacht :D) flöten und habe ich schon die Optik erwähnt? Wie gesagt: Geschmackssache, aber mich nervt das.
 
ja,sieht echt ungewöhnlich aus. Dafür sollte diese Lösung dann aber auch wirklich eine gute Kühlleistung haben und vor allem sehr leise sein. Ich vermute mal das es auch noch Lösungen gibt wo der Kühler nicht über das PCB steht.


gruß
 
Nö. 3-Slotkühler > 2-Slotkühler. Da ist überhaupt nichts doof dran. Mehr Metall kann mehr Wärme aufnehmen und verteilen.
 
Ist schon unfassbar. Erst meckern alle über die AIO. Jetzt ist auch die Lukü schon doof. Komisch, dass bei der Konmurenz die 2-Slot Monsterkühler als normal und sogar stat of the art gelten.
3-Slot würde sofort die ITX Gehäuse ausschließen. Da gibt es jagenügend, die zwar lang genug, aber nicht breit genug wären.
Das machen halt alle Hersteller ungerne.
 
@Jesterfox

Junge, hier geht es nicht um Spezialfälle (und auf µATX sollte das passen, wer da noch eine extra Soundkarte verbaut, statt onboard zu nutzen, bzw. durchzuschleifen, hat eh einen Denkfehler in der Planung, fast alles geht btw auch per USB), sondern um das Design; maßgeblich die Optik. ;)
 
Mein FT03 ist auch sehr gut für lange Karten geeignet, aber zusammen mit der Soundkarte (Asus Essence STX, auf die will ich nicht verzichten) wird's bei tripple-Slot auch eng. Eigene Erfahrung mit einer GTX580DCUII ;-)

Und es werden sicher noch andere Varianten der Fury kommen, einfach mal abwarten.


PS: ich glaub eher das die Leute die ein Sichtfenster im PC haben das man die Karte überhaupt sieht die Sonderfälle sind ;-)
 
Gut finde ich, dass auch die normale Fury 2x8-Pin bekommt. Vielleicht sehen wir ja hier die versprochene Übertaktbarkeit.
 
AIO Doof,großer Kühler auch Doof, eigentlich ist alles Doof was AMD und Partner machen :D Wie gesagt, die wahrscheinlichkeit das solche Kühler und PCB-Lange Kühler erscheinen werden ist recht hoch. Eigentlich sollte doch dann mal für jeden, falls er überhaupt dann mal vorhaben sollte eine Fury zu kaufen, auch der passende Kühler vorhanden sein. Vielleicht hört dann auch irgendwann mal das gejammer auf.

Mich persönlich stört die länge mal gar nicht, es ist mir total egal wie das aussieht da ich besseres zu tun habe als eine grafikkarte zu bewundern.

gruß
 
@Jesterfox

Du bist eine Spaßbremse. Dass ihr immer gleich generalisieren müsst. Ich wollte gewiss nicht die Fury an sich zur "Schei*karte" stilisieren.
Es ist doch recht erkennbar (auch durch das zweimalige Erwähnen des Wortes "Geschmack"), dass es um das eine Modell und dessen Designentscheidung geht.
Immer dieser übertriebene Beißreflex der Fans.
Natürlich wird es da noch andere Designs geben und für dich ist es bestimmt die Traumkarte schlechthin. Ich finde sie aber nicht so schön. :(

Dass das meine persönliche Meinung ist, sollte klar sein. Damit ihr euch beruhigt, hänge ich jetzt noch an, dass Nvidia auch hässliche Karten hat.
Darunter für mich zum Beispiel die Customs der 980Ti von: Palit, Asus. Würde ich mir auch nicht antun.

@xeonking

Mit Sichtfenster im Gehäuse guckt man auch danach, wie Hardware aussieht. ;)
 
@fried_Knight

ja mag sein mit dem Sichtfenster. Aber "schlecht" sieht sie ja nicht aus,eher halt ungewöhnlich. Ich hoffe bald auf die Nano, die wird für mich am interessantesten.

gruß
 
Asus geht wohl einen ähnlichen Weg:
http://wccftech.com/asus-strix-rade...ured-3584-sps-directcu-iii-triple-fan-cooler/
ASUS-STRIX-Radeon-R9-Fury-4-GB-Fiji-Pro-Graphics-Card-635x496.png

ASUS-STRIX-Radeon-R9-Fury-Graphics-Card-635x405.png

Interessant, dass hier wohl auch ein DVI verfügbar ist.
 
Wer brauch heute auch noch DVI? DVI ist veraltet und Displayport kann praktisch genau das gleiche mit einem kleineren Kabel welches man auch noch per Daisy Chain verlängern kann um z.B. den 2. Bildschirm anzuschließen.
 
Cool Master schrieb:
Wer brauch heute auch noch DVI? DVI ist veraltet und Displayport kann praktisch genau das gleiche mit einem kleineren Kabel welches man auch noch per Daisy Chain verlängern kann um z.B. den 2. Bildschirm anzuschließen.
Brauchen vielleicht nicht, aber wenn einer dabei ist, schadet dieser doch nicht.
 
Warum sollte man etwas verbauen was 1. Resourcen kostet 2. Platz benötigt und 3. nicht benutzt wird? Bei einer Karte welche 300+ € kostet kann man davon ausgehen das die User nicht nur ein 100 € Bildschirm haben welcher nur VGA und DVI hat.
 
Ich hab noch nen alten 4:3 TFT den ich als zusätzlichen Monitor nutze - der hat nur VGA und DVI. Der hat mich damals fast 1000€ gekostet und ein ziemlich gutes Panel. Würde ihn ungern ersetzen müssen...
 
Brauchen schon, nicht jeder wechselt jährlich seinen Zweit oder Dritt Monitor. Man munkelt gar, das es Displayport zu Zeiten der ersten 30" gar nicht gab.

Keiner nutzt 2 oder mehr Monitore? Dann frag ich mich was die Hype um Eyefintiy sollte. Oder sind Radeons doch nur rein für den Spielebetrieb geeignet?
 
Unyu schrieb:
Keiner nutzt 2 oder mehr Monitore? Dann frag ich mich was die Hype um Eyefintiy sollte. Oder sind Radeons doch nur rein für den Spielebetrieb geeignet?

Vor Allem die Radeons die für Eyefinity beworben wurden, haben alle explizit nur auf DP-Mini gesetzt, weil man von denen einfach 6 Stück auf der Platine unterbringen kann und welcher Grafikkarten Hersteller, kann schon ohne weiteres behaupten, dass man 6 Monitore an eine Grafikkarte anschließen kann ^^ , da ist das abhanden kommen eines DVI oder HDMI Anschluss überhaupt nicht tragisch, wenn man diese ohne weiteres mit Adaptern ersetzen kann ( Wenn man nicht zwangsläufig mit +60Hz spielt )

Bei der Fury X bewirbt man ja die Karte damit dass man 3*2K über DP anschließen kann, hätte man das etwa mit 3 DVI- Anschlüssen realisieren sollen ? :D die allesamt noch auf Dual Link setzen müssten ^^
 
@Krulemuk

Na ja das Pannel war evtl. mal gut... Ich selber hatte ein Syncmaster 244T bis letzes Jahr. Gekauft wurde der in ~2006 für 12xx €. Heute ist es ein Dell U2713HM welcher nur 600 € gekostet hat dafür aber einfach überlegen ist. Ab einem gewissen punkt sollte man einfach mal Upgraden alleine schon was Stromverbrauch angeht so habe ich z.B. ein größeren Bildschirm mit deutlich mehr Auflösung und der verbraucht auch noch über 50% weniger.
 
Zurück
Oben