Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen

Keine Ahnung was ihr da macht, aber egal ob AMD oder NVidia, wenn ich 700 Euro auf den Tisch lege, dann bastele ich da nicht dran rum
Nicht ? kurzer test und der Normale Luftkühler wandert in die Schachtel gerade als Besitzer einer Wakü sollte ein Stück Schaumstoff einklemmen einen doch eher weniger abschrecken zumal hier keine Siegel gebrochen werden oder sonst was. Es ist nicht schön aber immerhin eine Lösung.
Warum sollte eine Pumpe überhaupt 100% laufen, wenn der Rechner im 2D Modus ist?
Weil sie vermutlich sonnst zu wenig fördert die Pumpen der AIO´s sind nicht unbedingt bärenstark dafür aber winzig. Wenn genug Flüssigkeit durchs System läuft dann muss die pumpe bei keiner last mit 100% laufen denn ab ~50l/h bringt mehr flow auch nichts mehr.
 
Zuletzt bearbeitet:
@Ankh
Ich verstehe deine Argumentation und die ist auch nicht wirklich falsch ABER schau dich doch mal um, was haben wir in letzter Zeit für Leistungssprünge bekommen ? 20-30% mehr FPS sind einer ganzen Generation gleichzusetzen, so traurig das auch klingen mag und nach deiner Argumentation müsste jeder von uns eine 970 kaufen, weil auf die paar % mehr, kommt es anscheinend nicht an. Dazu kommt noch, das ich immer noch nicht glaube, dass alle aktuellen Karten, auch alle DX12 Features unterstützen werden. Letztendlich können die paar % mehr den Unterschied, zwischen spielbar und unspielbar ausmachen.
 
Es gibt Leute die kaufen sich auch für 700€ ne Nvidia Karte von EVGA nur um damit selber den Kühler wechseln zu dürfen...und hier macht man sich ins Hemd weil man eine Abdeckung entfernen muss.

Natürlich ist es nicht elegant, aber kaum ein Laie kauft sich solch eine GPU....man könnte genauso ins Feld führen, dass ich mir bei einer Titan X und deren Preis, gefälligst von Nvidia einen Ingenieur erwarte, der mir die Karte in meinen Rechner einbaut...ich könnte sie ja dabei kaputt machen.

Fakt ist, Fury X polarisiert enorm die Community. Witzig find ich nur, dass viele, von denen ich bislang dachte, sie wären objektiv, jetzt mit jedem Post alles systematisch schlecht zu reden was man nur findet.
Sei es ein fehldenes HDMI2.0, das aktuell noch schlechte OC oder oder oder. Die Leute die hier groß meckern, würden sich auch keine Fury X kaufen, selbst wenn alle Punkte erfüllt wären.
Nur wenn sie, 20% schneller wäre, DX12.1 hätte, 50W weniger bräuchte, 100€ weniger kosten würde, und passiv gekühlt wird....ja, dann würden sie wohl manche von den Hatern kaufen.

Bei manchen Usern muss man spätestens jetzt einfach nur mehr den Kopf schütteln.
 
was ich bei so bemerkungen hier immer witzig finde ist das mitlerweile offenbar unter 60fps man spiele nicht spielen kann, ich kann mich noch gut an die Zeit erinnern wo minfps von 30hz das ziel war...

Nun wird eine karte die oft die 30fps bei vielen spielen max settings unter 4k schafft gesagt das 30% mehrleisung oder 10% mehr leistung obendrauf zur gtx980ti kein unterschied macht, da spiele trotzdem unspielbar bleiben.

Klar wenn man unter 60 fps als neue Diashow definiert dann moegt ihr recht haben aber meiner ansicht nach koennte es die karte werden die mit dx12 mit relativ deutlichem Abstand die beste 4k Karte sein wird.

Klar muss man mal schauen, diese angeblichen Microruckler muss man mal eindeutigeres abwarten, es bleiben also offene fragen.

Von daher kann ich auch die vergleiche auf fullhd nur begrentzt verstehen ob die karte bei fullhd nun 60 oder 80 fps liefert sollte fuer das menschliche auge genau gar keinen unterschied machen.

Zu guter letzt wurden die Benchmarks von fullhd oder 1440p mit klassischem AA gemacht, bei so ner Aufloesungsfreundlichen karte waere natuerlich interessant diese downzusamplen und das als AA zu verwenden.

Dann ein Grafikvergleich zwischen git980ti mit AA und ner downgescalten fury X waere doch dann interessant, ich habe im Kopf, das wo geschrieben stand das Downsampling deutlich bessere Bildqualitaet liefert.

Wenn dem so waere, waere die Fury nicht nur unter 4k die schnellste karte sondern eben auch auf ausgabegeraeten die kein 4k packen. Natuerlich mags da nieschen geben wo die 30 bis 40fps nicht aus reichen auch nach dx12 nicht mehr, aber Esportler stellen ja eh meistens die Einstellungen zumindest nicht auf MAX.
 
Zuletzt bearbeitet:
Volker schrieb:
Ist halt mit Treibern problematisch sonst und gibt von euch nur auf die Fresse :p

:D

Da musste ich echt lachen, lass/t dich/euch nicht unterkriegen, bei dem Test hier gabs bisher fast ausschließlich nur Streicheleinheiten, oder?

Zudem finde ich es ziemlich gut, dass ihr euch so aktiv an der Diskussion beteidigt.

Da kann man nur sagen: :daumen::daumen::daumen:
 
Die Karte ist kein Fisch und kein Fleisch...

Was muss AMD geritten haben, dem Chip zwar 4096 Shader-Einheiten aber nur 64 ROPs zu spendieren, bei der GTX 980ti sind es 2816/96. Von der Speichermenge - aus welchen technischen Hürden auch immer - ganz zu schweigen.

Die brachiale Rohleistung kann bis 1440p nicht gescheit in fps umgewandelt werden, irgendwas muss ja limitieren.
Ab 4k gewinnt die Fury x wieder an Boden, aber nur weil die Gesamtarchitektur dann so ausgelastet ist, dass der Flaschenhals bis 1440p - was dieser auch immer sein mag - nicht mehr ins Gewicht fällt.

Für 4K Gaming ist sowohl die FuryX als auch die GTX 980 TI nicht ansatzweise geeignet, albern wenn 30fps schon als "4k-ready" bezeichnet werden. Seit wann sind 28 fps Min bzw. 37 fps AVG spielbar? (Witcher 3)

1080p (2.073.600) zu 2160p (8.294.400) sind mal eben 400% mehr Pixel, woher zum Geier soll ein Generationssprung soviel mehr Leistung mitbringen, um 400% mehr Pixel darstellen zu können.

Bis 4k vergehen noch zwei Generationen, wenn dann Witcher 3 in 3840 x 2160 mit smoothen 80fps AVG übers Bild gleitet, dann sind wir bei "4k ready" angelangt, alles andere ist Wunschdenken.

Und dass 4 GB heute genug sind, heisst nicht, dass es in drei Jahren auch der Fall ist. Meine 7970 GHZ ist nun exakt drei Jahre alt und zaubert heute noch alle Spiele in 1080p absolut spielbar auf die Leinwand - auch dank des Speichers von 3 GB und auch ohne Crossfire.

Wer legt seine Hand dafür ins Feuer, dass eine Fury X - immerhin eine 700 EUR Investition - die neusten Kracher Juni 2017 in 4k spielbar abbildet? Ich kann doch nicht nur von den Spielen ausgehen, die es heute gibt. Wäre ja traurig, wenn die Grafikqualität in den nächsten 2 Jahren sich nicht weiterentwickeln würde.

Insofern rate ich nach drei Tagen Release immer noch darüber, was AMD mit der Fury X bezwecken möchte.
-Nicht wirklich ein Gegenstück zur GTX 980 TI, gerade in den OC-Varianten
-Und offensichtlich kein Gegenstück zur GTX 980, da schlappe 100€ zu teuer.

Ich bezeichne mich schon als "AMD-Fan", aber beim r290x-Launch hat AMD es verbockt und jetzt wieder so nichts halbes und nichts ganzes.

jm2c
 
Zuletzt bearbeitet:
blackiwid schrieb:
was ich bei so bemerkungen hier immer witzig finde ist das mitlerweile offenbar unter 60fps man spiele nicht spielen kann, ich kann mich noch gut an die Zeit erinnern wo minfps von 30hz das ziel war...

So? Wann soll das denn im PC-Bereich gewesen sein? Dass 30Hz ausreichend sein sollen, versuchen eigentlich nur Sony und Microsoft sowie diverse Publisher den Konsolen-DAUs einzureden, da die Müll-Hardware in den Konsolen einfach nicht mehr packt, aber 30Hz/fps wurden beim PC mit Sicherheit noch nie in der Breite als genügend angesehen. Es gibt ein paar Nischen wie den Microsoft Flight Simulator, bei dem die Leute froh sind, wenn der wenigstens auf 30fps kommt, aber sonst ist seit Einführung der LCDs vor über 10 Jahren schon immer 60Hz/60fps als absolutes Minimum das Maß aller Dinge gewesen.
 
dcdead schrieb:
Overclocker's dream und dann macht die bei +65 MHz schlapp? Guter Witz. Schade, aber so bleibt die 980 ti

980 TI für Diablo III oder was? Wer ne TI hat und jetzt ernsthaft über einen Grafikkartenwechsel nachdenkt ... naja, dem ist eh keine Leistung genug :). Ich habe mir auch einen "WOW-Faktor" erhofft, der ist bisher ausgeblieben.
Bleibt abzuwarten ob durch Treiberoptimierung (ja nicht gerade AMDs Steckenpferd) und bessere Nutzung von HBM noch ein Leistungsschub zu erwarten ist. Die Kühlung könnte auch etwas mehr hergeben u. U. von Drittanbietern. Interessanter wird eher die Nano oder die neuen 390X Modelle was den Preis angeht.

Aber für 650€ meiner Meinung nach keine schlechte Karte... vor allem wird der Preis noch weiter sinken. Zumindest ein leichter Druck entsteht so. Jedoch hat nVidia mit der 980 Ti wohl das leicht bessere Paket, mMn leider.
 
naja ich zocke aktuell auch viele Titel GTA 5, Witcher 3 mit der HD6950@70 bei 30-35FPS und das geht gut wie ich finde. Es macht nen Unterschied ob man Shooter wie CS / Q3 / UT zockt oder zB n Rollenspiel.

4k werden nie wirklich "ready" sein, auch bei Konsolen nicht. 1080p mit aufgebohrten Effekten die die Leistung der 4x Pixelmenge wegfressen werden optisch besser aussehen als zwangsweise mehr Pixel zu berechnen. Am TV sowieso. Genau deswegen nutzen die Konsolen oft 900p, dann spart man sich 30% Rechenleistung und wendet die auf Effekte an.

Bevor ich also auf meinem 4k mit hoher Pixeldichte 4k auf "mittel" zocke nehm ich doch lieber Ultra auf FHD und schalte AA zu. Oder eben 1440p DS auf FHD.
 
Zuletzt bearbeitet:
Moriendor schrieb:
So? Wann soll das denn im PC-Bereich gewesen sein? Dass 30Hz ausreichend sein sollen,

hz und fps sind 2 paar stiefel, weiss nicht ob das daran liegt das ich zuerst ausversehen hz geschrieben habe und dann korrigiert aber 60hz ist bei monitoren ja eh standard seit immer.

2012 wurde von PCGH wohl "entdeckt" das bei schnellen spielen mehr als 24fps wichtig sind :) http://www.pcgameshardware.de/Spiele-Thema-239104/Specials/Wann-laufen-Spiele-fluessig-1034704/

Hier werden aber auch nur Multiplayer-shooter und rennspiele verlinkt. Bei witcher 3 z.B. sollten 40fps im Schnitt recht angenehm laufen. Besser geht natuerlich immer...

Aber wenn ich dann noch bedenke das heute die meisten an TVs spielen die 1 2 teils 3 fps lag liefern wirds noch absurder.

Ja es gibt die niesche der esportler oder sowas... aber muss es da wirklich immer alle regler auf max sein? zumal die meisten esportgames eh so kack haesslich sind das die fps dadurch nicht einbrechen. Z.b. Counterstrike.
 
r4yn3 schrieb:
Es gibt Leute die kaufen sich auch für 700€ ne Nvidia Karte von EVGA nur um damit selber den Kühler wechseln zu dürfen...und hier macht man sich ins Hemd weil man eine Abdeckung entfernen muss.

Natürlich ist es nicht elegant, aber kaum ein Laie kauft sich solch eine GPU....man könnte genauso ins Feld führen, dass ich mir bei einer Titan X und deren Preis, gefälligst von Nvidia einen Ingenieur erwarte, der mir die Karte in meinen Rechner einbaut...ich könnte sie ja dabei kaputt machen.

Das ist Blödsinn, eine Karte mit einem solch eklatanten Mangel sollte man zurückgeben. Mit der Bastelei riskierst du nicht nur deine Karte, sondern du verlierst auch die Gewährleistung und Garantie. Wenn einem das Fiepen stört, dann sollte man die Karte einfach zurückgeben und warten, bis der Hersteller den Mangel in der Serie behoben hat, oder man kauft sich eine andere Grafikkarte, gibt ja genug zur Auswahl.
 
blackiwid schrieb:
was ich bei so bemerkungen hier immer witzig finde ist das mitlerweile offenbar unter 60fps man spiele nicht spielen kann, ich kann mich noch gut an die Zeit erinnern wo minfps von 30hz das ziel war...

Nun wird eine karte die oft die 30fps bei vielen spielen max settings unter 4k schafft gesagt das 30% mehrleisung oder 10% mehr leistung obendrauf zur gtx980ti kein unterschied macht, da spiele trotzdem unspielbar bleiben.

Richtig, meine Spiele brauchen z.B. ebenfalls keine 60 fps oder mehr, aber sie profitieren erheblich von 4k. Ich spiele keine kompetitiven PvP-Spiele (mehr) wo es auf gigantische FPS und hochreaktive Displays ankommt. Bei mir kommt es in meinen PvE bzw. Single-Player Spielen auf Bildqualität und Stimmung an. Und die habe ich auch bei 40 fps in 4k auf langsameren, aber hochwertigen Displays.

Von daher stören mich auch diese pauschalisierten Aussagen, "4k macht allgemein erst ab 60 fps Sinn". Wer sowas behauptet, der schaut nicht über seinen eigenen Tellerrand sondern überträgt einfach nur seine Ansicht auf alle. Ich finde sowas engstirning und peinlich. Ich habe ja kein Problem, wenn man 60fps als Untergrenze für sich selbst definiert, aber dann sollte man auch so hervorheben und nicht alles andere pauschal abwerten.
 
sondern du verlierst auch die Gewährleistung und Garantie
Nope verlierst du nicht, der Deckel darf vom Endkunden entfernt werden.
Allerdings sollte sich AMD dem Problem schleunigst annehmen das wirklich jede Serienkarte ohne nerviges fiepen beim Kunden ankommt.
 
Zuletzt bearbeitet:
schön wäre es vielleicht, wenn AMD ein BIOS-Update bringt, wo die pumpen-spannung auf ~10Volt reduziert wird.
sofern das übers bios überhaupt möglich wäre.

​mfg
 
BOBderBAGGER schrieb:
nope verlierst du nicht.

Zu pauschal, Garantie ist ne freiwillige Leistung des Herstellers, die kann der jederzeit widerrufen.
Gewährleistung ist ein anderes Thema, wobei ich auch da nicht sicher wäre, ob die noch bestehen bleibt, wenn man bauliche Veränderungen vornimmt. Hängt halt auch davon ab ob man Dir in den ersten 6 Monaten beweisen kann, daß Du dran rumgebastelt hast und ob das dann ursächlich für den Gewähleistungsfall war.
 
daß Du dran rumgebastelt hast und ob das dann ursächlich für den Gewähleistungsfall war
jap aber es geht hier nicht um massive bauliche Veränderungen sondern um ein stück Schaumstoff unter einem Deckel den du ohne weiteres entfernen und auch gegen einen selbstgemachten austauschen darfst. Wer bei der ganzen Aktion den Block von der Karte reist oder das PCB in Stücke bricht dürfte Probleme bei einer RMA bekommen.
 
30 Fps sind natürlich nicht optimal aber ich kann damit leben, was mich aber viel mehr stört, ist das nicht skalierbare Interface, bei manchen Spielen. Ich weiß nicht ob man zur Zeit viel Spaß haben kann mit einem 4k Monitor. Ich besitze zwar nur einen 1440p Monitor und selbst 1440p ist bei manchen Entwicklern noch nicht angekommen. Ich könnte zwar auf 1080p runtergehen aber das sieht einfach nicht gut aus. Also ich bevorzuge eindeutig die native Auflösung.
 
Krautmaster schrieb:
4k werden nie wirklich "ready" sein, auch bei Konsolen nicht.

Täglich grüßt das Murmeltier ...

Mit der 290er Reihe im Crossfire kein Problem. Die Karten gibts seit ende 2013.
Und nein, keine "low" Details - außerordentlich oft sogar High+.

http://www.guru3d.com/articles-pages/radeon-r9-290-crossfire-review-benchmarks,21.html

Oh wait .. Glaskugel-Alert!
- Unpraktikabel? Nein .. in Verwendung aber danke.
- Zuviel Leistung .... 700W Netzteil, kein Thema ist ja auch ne Pixelfläche von 4x 1080p.
- Zu heiß? Nein ...
- Zu teuer? Gebraucht für unter 400€ zu haben ... (200eur pro Karte).

4k ist schon lange kein Traum mehr. Zumindest bin ich mir sicher dass ich nicht träume. Auch wenn es aktuell nur downsampling auf 2k ist, ich spiele in 4k - und das schon ein gutes halbes Jahr.

mfg,
Max
 
Zuletzt bearbeitet:
Muss ja auch zu lernen vor 5 oder 10 jahren war fuer mich eigentlich klar das man ab 30fps min fps ein spiel perfekt laeuft ausser bei quake3 gabs dann so geruechte oder was das man da dann hoeher huepfen kann.

Also damals war 60fps was esoterisches fast schon :) Aber umgekehrt ist halt auch nicht richtig das man fuer interactive Singleplayer-Filme was man mit so karten nunmal spielt primaer denk ich ( fuer counterstrike brauchst so ne karte nicht ) auch 60fps min haben muss.

Aber selbst wenn auf high settings oder so 4k sieht denk ich immernoch besser aus als fullhd ultra. Und das die karte da den 60fps naeher kommt wie ne 980 ti kann man von den Tests auch raus lesen.

Sicher mit DX12 und co werden die karten neu gemischt, aber AMD hat gute chancen da den Abstand eher zu vergroessern als umgekehrt.
 
Zurück
Oben