Test Fury X gegen GTX 980 Ti: CrossFire und SLI in Ultra HD und „12K“ im Vergleich

Da fängt man an zu lesen, freut sich auf vergleiche und bekommt erstmal nur eine Gehäuse Erklärung der Marke milfcom. (ups ein L)..
 
Depp_vom_Dienst schrieb:
Davon abgesehen, dass eine für 4K ausgelegte Karte...

Keine einzige aktuelle Grafikkarte ist wirklich für 4K ausgelegt. Das ist eine reine Marketinglüge. Keine aktuelle Karte schafft es in 4K bei vollen Details in aktuellen Titeln durchgängig spielbare FPS zu liefern. Das wird sich frühestens mit der nächsten Generation ändern, eventuell sogar noch später.
 
Der Test mit 4x Titan X wäre interessant gewesen :p
 
wieso benutzt man für so ein system eine cpu mit nur 16pci-e lanes ?!
 
Na ja,den Test als sinnfrei zu bezeichnen ist wohl etwas übertrieben!
So kann man u.a. nen kleinen,begrenzten "Blick" in die Zukunft werfen.
Interessant ist auch ob und wie sich die 4GB der Fury bei CF verhalten!
Es soll ja nur ein kl. Ausblick sein.
Ausserdem zeigt sich so mal wieder,dass AMD u. NV viel an CF/SLI arbeiten müssen!!
VG
P.s.Bis sich allein 4K flächendeckend u.v.a.bei vollen(Ultra) Details,AA usw...(wie bei FHD) bei allen aktuellen u.kommenden Games richtig flüssig zocken lässt,muss man eh noch min. 1 GPU Gen.abwarten!!
 
Zuletzt bearbeitet:
Wer nicht bereit ist viel Geld für 2 GPU's und den passenden Monitor auszugeben, für den ist gescheites 4K zocken in weiter Ferne. Ich finde das schade!
 
aivazi schrieb:
Der neue 15.7 hat doch soviele Zusätzliche CF-Profile, warum wird also nicht der verwendet...

Und der Rest der sich über die Treiberversion ärgert:
Euch ist schon bewußt, dass so ein Test einige Tage dauert und nicht innerhalb ein paar Stunden mal eben zusammengerotzt wird?
Da der 15.7 letzten Mittwoch erst rausgekommen ist, liegt es wohl im Bereich des Möglichen, dass vor dem 8ten schon mit dem Test begonnen wurde oder er vielleicht sogar schon abgeschlossen wurde.
Mehr brauch ich wohl nicht sagen, oder?
 
Interessanter Test. Für 12k Gaming sind dann 4GB VRAM in der Tat zu wenig. Eigentlich würde ich gerne noch einen Test mit 4-fach SLI/Crossfire sehen, aber das hat sich damit nun erledigt.

Wenn Fury X, dann sollte man bei maximal 4k Auflösung bleiben. Allerdings gibt es auch dafür schöne Anwendungsfälle: ich habe hier ein Crossfire Gespann aus 2 x R9 290 und einem Triple-Monitor-Setup. Mit Rahmenkompensation komme ich auf eine Auflösung von 5972 x 1080 Bildpunkten. Die fps in Spielen wie bspw. Battlefield 4 sind weit über 60fps und damit sind dann auch keine (Mikro-)Ruckler erkennbar.
 
So ein Test ist schon recht umfangreich. Für alle die sich hier über den Treiber beschweren. Vielleicht war der Treiber zu Beginn der Testreihe noch nicht verfügbar und wird noch nachgereicht. Ein Test von 4 Titan x halte ich auch für sinnfrei. Selbst Tests mit 3 Karten da sich 99,8% der Spieler nicht mehr als 2 Karten kaufen werden. Insofern Daumen hoch für den Test :)
 
Noch zwei Anmerkungen meinerseits:

Warum wird hier ein 1200W Netzteil verbaut, wenn die max. Leistungsaufnahme bei knapp 700W liegt? Das ist doch sehr wohlwollend dimensioniert. Eventuell um erst gar nicht in einen Bereich zu kommen, an dem der Lüfter im Netzteil voll aufdreht? Dann ist allerdings die Lüfterabstimmung im System sehr unausgewogen, wie man auch an der Kritik der Corsair H100i GTX sehen kann.

Weiterhin heißt es im Artikel, dass DX12-Spiele mit 4GB VRAM besser zurechtkommen (bei 12k Auflösung), denn dann muss kein AFR mehr benutzt werden? Das möchte ich erstmal sehen, wie groß die Adaption des Features SFR tatsächlich in den künftigen Spiele-Engines ist.
 
Kein Wunder das sich die Fury X geschlagen geben muss.
Mit 4GB war nichts anderes zu erwarten.
Nächstes Jahr mit 8GB könnte das schon ganz anders aussehen.

Aktuell führt weiterhin kein Weg an NVIDIA vorbei.
 
Shio schrieb:
Und der Rest der sich über die Treiberversion ärgert:
Euch ist schon bewußt, dass so ein Test einige Tage dauert und nicht innerhalb ein paar Stunden mal eben zusammengerotzt wird?
Trotzdem bleibt es ärgerlich, denn damit ist der Test leider schon veraltet. Vor allen Dingen, weil in den Release Notes viele Crossfire Profile gelistet sind unter anderem auch The Witcher 3, welches im Test bemängelt wurde.
 
Zeig nur mehr das die Industrie, ob Hardware Hersteller oder Game Hersteller, für das ganze noch nicht bereit sind.
 
Depp_vom_Dienst schrieb:
Ist ja ganz interessant, aber viel interessanter wäre doch mal ein R9 390(X) Roundup mit verschiedenen Partnerkarten.
das wäre in der tat ne gute sache.
-
dieses komplettsystem finde ich ja ehrlich gesagt etwas fragwürdig. ein 1200W-NT für ein system, welches unter volllast nicht mal 700W braucht, und dann für 3700€ gerade mal nen popeligen 4790K und nur 16GB RAM?

ansonsten wäre es interessant zu wissen, wie lange es dauern wird bis UHD bei den zockern so verbreitet ist wie FHD jetzt. da dürften noch so einige jahre vergehen^^
 
Zuletzt bearbeitet:
SirFEX schrieb:
So ein schickes System .... ein schickes Gehäuse ... Wasserkühlung ... dezent farblich abgestimmte Lüfter ... alles in schwarz-rot gehalten ... ein wunderbares großes Sichtfenster ... gesleevte Kabelstränge in entsprechenden Farben ... alles wunderschön ... und dann ... der Fauxpas schlechthin ... ein "Geht-mal-gar nicht" ... Der alles zunichte machende Patzer ... jetzt mal ehrlich ... wie kann man so ein sauber aufgebautes System mit nem hässlichen, überhaupt nicht passenden, silbernen Laufwerk mitten im Sichtbereich verschandeln ???? ... eine wahre Schande ... sorry ... aber das geht mal wirklich gar nicht :-( ... :stock:

was laberst du, der ist von vorne schwarz :D
 
Murasame schrieb:
Kein Wunder das sich die Fury X geschlagen geben muss.
Mit 4GB war nichts anderes zu erwarten.
Nächstes Jahr mit 8GB könnte das schon ganz anders aussehen.

Aktuell führt weiterhin kein Weg an NVIDIA vorbei.

doch wenn man die stärkste Karte in der Größe von der Fury haben möchte. Solche riesen wie Titan oder 980 brauche ich nicht. Dann die Fiji! Zumal der minimale Unterschied mit aktuelleren Treiber nicht mehr auffallen wird.
 
Von besserer Skalierung zu reden ist im Fazit einfach nur falsch. Da je nach Spiel mal der eine mal der andere vorne liegt, sollte man eher von nicht vorhandener Optimierung sprechen. Und falls man nun noch betrachtet das die Fury X gerade mal ein paar Wochen am Markt ist und mit Sicherheit noch CF Profile hinzugefügt werden, könnte sich das Bild doch noch deutlich in Richtung Rot verschieben.
So ist der Test als Momentaufnahme gut, als finales Fazit aber leider doch daneben.
 
Shaddix22 schrieb:
doch wenn man die stärkste Karte in der Größe von der Fury haben möchte.

Ja, wenn man ne möglichst kleine Karte braucht hast du natürlich Recht.

Ich hatte mich mit der Aussage speziell auf Multi-GPU und 4k bezogen.
 
ChillaGorilla schrieb:
wieso benutzt man für so ein system eine cpu mit nur 16pci-e lanes ?!

Könnte hier mal bitte jemand drauf eingehen? Die CPU hat hier wirklich nur genug Lanes für eine einzige Karte. Man hätte doch einen mit mehr als 32 nehmen müssen, zB den i7-5930K. Dadurch ist der Test doch komplett nichtssagend. Irgendwie ist es wohl auch an mir vorbeigegangen wo das NVidia System gezeigt wird. Wurde da der gleiche Prozi genutzt?

//edit

Hab das Testsystem gerade doch noch gesehen. Aber hier auch eine CPU mit 16 Lanes. Erklär mir das mal bitte einer.
 
Zuletzt bearbeitet:
Depp_vom_Dienst schrieb:
Ist ja ganz interessant, aber viel interessanter wäre doch mal ein R9 390(X) Roundup mit verschiedenen Partnerkarten.

Davon abgesehen, dass eine für 4K ausgelegte Karte wie die Fury X in 12K an zu wenig VRAM krankt ist doch nicht verwunderlich ? Das hätte man sich auch vorher denken können.

Ich hätte einen Vergleich der 390x in Tripple Crossfire vs GTX 980ti im Tripple SLI interessanter gefunden. Für so extreme Auflösungen halte ich 3 x 390x oder 4 x 390x viel interessanter als die Fury X, die hat je nach Game sogar unter 4K je nach Setting zu wenig Vram.
 
Zurück
Oben