AMD R9 Fury X besser mit DX12?

max_1234 schrieb:
Oh, wie passend dass es hier im Thread im DX12 Performancen im Allgemeinen geht - und nicht um namentlich genannte Spiele, obwohl das Eine nur das Andere implizieren kann ;)

mfg,
Max

Waru nur ein Zitat von der Website von der der Test stammt.
 
Joah, das Zitat ist aber zu allgemein gehalten.
Wir müssen einfach abwarten bis wirklich was zum Vergleichen da ist. Erste DX12 Spiele wurden wohl schon bei der E3 angekündigt, da kann man dann ordentlich Dampf ablassen. Bis dahin ist alles, auch Reviews und Aussagen von TechSites - ausschließlich spekulativer Natur.

Und bzgl. "spekulativer Natur" muss man anlasten, dass AMD mit Mantle Erfahrung und der neueren Karte evtl. auch mehr Leisten könnte.

mfg,
Max
 
Hopsekäse schrieb:
@Integralformat
So würde ich das aber nicht stehen lassen. Die Ruckler sind beim Querlesen durch mehrere Tests nicht nur in unspielbaren Bereichen aufgetreten und es waren auch diverse Spiele. Falls du den Fall beim CB-Test meinst, dann sind die Frameraten in Shadow of Mordor auch noch um 30FPS herum. Wenn du das als unspielbar betrachtest bittesehr, dann sind mit der Karte aber 12/18 Spielen aus dem CB-Testparcour unspielbar. Und die Ruckler treten bei anderen Karten, die teilweise insgesamt ein paar FPS weniger haben nicht auf. Wenn man also 4K machen will, sollte man mit einer Fury das Thema schon noch mal genauer betrachten, denn diese Frameraten sind nunmal das, was man dann bekommt und Ruckler da drin, die das Spielgefühl teilweise schlechter werden lassen als bei etwas langsameren Karten, sind dann, wenn sie tatsächlich auftreten, nunmal ein Nachteil, den andere Karten nicht haben.

Naja - was mich bei den aktuellen Tests etwas stört, ist die Auswahl der getesteten Spiele. Die Reviews, die ich gelesen habe, sind irgendwo alle komisch. Einige Seiten testen nur eine sehr begrenzte Auswahl an Spielen (3-6 Stück), andere verwenden für die Frametimes Spiele, die sie zuvor nicht als fps-Diagramm dargestellt haben. Bei CB lässt die Testmethodik meines Erachtens auch mehr Fragen offen, als sie beantwortet. Unter welchen Einstellungen getestet wurde geht abgesehen von der Auflösung nicht unbedingt hervor (Schande auf mein Haupt, falls ich das übersehen haben sollte), für die Frametimes wird ausgehend von dem Testmethodikartikel ein NVidia Tool benutzt (Gameworks lässt grüßen?) und ist auf 1440p beschränkt (Framtimes 4K?).

Ich habe nicht das Gefühl, dass hier ein halbwegs brauchbares Abbild der Situation abgegeben wird. Ob man jetzt mit 30fps und/oder Minirucklern noch leben kann, oder nicht, ist letztendlich auch eine Frage der persöhnlichen Präferenzen. Und verrunzte Software, wie Shadow of Morder betrachte ich erstmal als Ausreißer. Es gibt immer noch die Möglichkeit, nicht alles auf Anschlag zu spielen.

Was ich sagen will - ich halte die umlaufendes Tests für mittelprächtig. Daher würde ich mir im Zweifelsfall lieber selbst eine Meinung bilden, in dem ich die für mich relevanten Titel am eigenen Rechner teste. Und am Ende steht noch die Frage, inwiefern AMD da mit Treiberarbeit noch verbessern kann.

Btw - auf eine 8GB Version zu warten, dürfte nicht sinnvoll sein. Falls sie denn überhaupt kommen sollte (die Frage ist wohl auch bei den Kennern noch nicht geklärt), käme sie sicherlich nicht vor Weihnachten. Da kann man auch gleich wieder auf Pascal warten.
 
Der Text den Kasmopaya da zitiert hatte (der übrigens von mir aus einem anderen Thread ist), hat die Ergebnisse aus rund 15 Tests zusammengeführt. Da waren auch Seiten bei, die Frametimes kategorisch zu jedem Spiel, das sie benchen, mitschreiben. Und es waren wahrlich nicht so wenige, dass man davon reden könnte, dass der HBM aktuell prinzipiell immer ausreicht, da es schon dokumentierte Fälle gibt, in denen eben knallharte Fakten in Form von Rucklern auf der Fury X, wo 6-8GB-Karten beider Hersteller eben nicht ruckeln, auf den Tisch gelegt wurden. Wie viele Spiele dann insgesamt getestet wurden, ist vollkommen irrelevant. Es waren Spiele dabei, in denen es passiert ist. Fertig und aus. Wie viele weitere mit welchem Ergebnis in eben diesen einzelnen Tests gemessen wurden, macht dafür keinen Unterschied. Fakt ist, dass beim querlesen über mehrere Reviews, zahlreiche Fälle vorhanden waren. Ob sich das wegtreibern lässt oder nicht, will ich gar nicht spekulieren. Dieses ewige "reicht absolut immer, die Seiten haben ja auch meist nur 1-2 Fälle, da wird es dann sicher an falscher Messung oder sonstigen Fehlern liegen, denn HBM ist ja neu und von AMD und komplett anders als alles" geht mir aber auf den Keks und ist an der Realität vorbei. Dann auf den Messtools rumzuhacken, weil sie von NVidia seien oder ja nur in 1440p messen (Nur?! Die treten also teilweise sogar schon! in 1440p auf!) ist auch blanker Unsinn, wenn die Redakteure regelmäßig die Ruckler mit bloßem Auge erkennen und die bösen NV-Tools AMD-Karten mit 8GB flüssiges Gameplay attestieren.

Achso und was den Drawcall-Test in DX12 angeht... Sorry, aber wer den für irgendwas her nimmt und daher große Leistungszuwächse vorhersagt, der hat etwas ganz grundlegendes nicht verstanden. Und Mantle gegen Nvidias DX11 zu vergleichen ist genauso unsinnig, denn mit DX12 wird beim Driver-Overhead beiden Herstellern eine riesen Last von den Schultern genommen. Davon abgesehen, wirkt sich diese Verbesserung bei den Drawcalls lediglich auf die CPU-Limitierung aus, von der mit DX12 dann wieder beide Hersteller sehr weit abrücken werden. AMD rennt ja aktuell auch viel früher als NV ins CPU-Limit, kann aber trotzdem mithalten, wenn beide ausreichend CPU-Leistung als Partner haben. Mit aktuellen CPUs ist dieses "ausreichend" meist überhaupt kein Thema und wird es dann mit DX12 noch viel weniger sein.
 
erst mal danke für die vielen antworten und kommentare.

ich weiß schon das dx12 noch nicht da ist aber irgendwie hab ich jetzt schon so oft gelesen das die r9 serie mit dx12 noch mal nen leistungsschub bekommen wird. deswegen meine frage dazu.

Kaufen werd ich mir die karte in ca 1 monat.
wird es möglich sein auf 4k flüssig zu spielen mit fury x oder 980Ti? sowas wie das aktuellste battlefied oder GTA 5.
oder sollte man mit 4k gaming eher noch warten? (ich will kein cf oder sli)

mfg
 
Im Forum kann man vieles lesen. Vergiss die ganzen Spekulationen/Wünsche von Fanboys (auf beiden "Seiten" :freak:)
Waren schon vor dem Release der Fury-X übertrieben bezüglich der Leistung.

Heißt nicht, dass die Karte nicht zulegen kann, aber diese Phantasie Werte sind Schwachsinn (Post 13 zB)

Zu deinen Fragen:
GTA V: https://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/5/#diagramm-gta-v-3840-2160
Battlefield 4 (Singleplayer, Muiltiplayer ist auch stark von der CPU abhängig) http://www.hardwareluxx.de/index.ph...98-amd-radeon-r9-fury-x-im-test.html?start=14

CB hat keinen Battlefield 4 Benchmark mehr (eben wegen der starken CPU Abhängigkeit)
 
ja das hab ich mir sowieso gedacht :D

und danke für die Benchmark links.

aber ich bin mir noch immer unsicher ob nvidia oder amd :D
 
Ich persönlich würde mich für die GTX 980 Ti entscheiden, da die Custom-Designs schneller als die Fury-X sind und 2GB mehr Speicher haben.

Für die Fury-X spricht einerseits die AiO-WaKü (sofern sie nicht von dem Gefiepe betroffen ist) und andererseits der günstigere Preis.

Software/Treiber seitig nehmen sich AMD und nVidia wenig. Gibt Software die bescheiden auf AMD läuft und Software die bescheiden auf nVidia läuft.
 
Für die Fury-X spricht einerseits die AiO-WaKü (sofern sie nicht von dem Gefiepe betroffen ist) und andererseits der günstigere Preis.
Ist aber nix was man nicht mit nem Zweckentfremdeten Kraken und Co nicht auch hinbasteln könnte, allerdings muss dann noch ein Lüfter mit drauf für Speicher und Co ;)
 
Moin,

wohlwissend dass der Thread nun über einen Monat unangetastet ist, würde ich gerne aus meiner persönlichen Erfahrung zum Thema 4K und 4GB beitragen.

Ich habe seit einem knappen Jahr 2 R9 290X im Crossfire laufen und kann jedes Spiel (Bsp. BF4, AC:U, FC4, Crysis 3, GTA5) anstandslos in 3840x2160 spielen. Spiele die kein CF unterstützen laufen auch auf einer Karte hervorragend, was allerdings auch auf BF4 zutreffen würde.

Die Karten haben übrigens auch nur 4GB Speicher und limitieren definitiv nicht! Es ist sogar noch Luft. Dazu muss ich sagen, ich spiele generell auf maximalen Einstellungen, mit Ausnahme von AA, das ist abgeschaltet und nun wirklich unnötig bei der Auflösung.
Aber wer meint Unsummen für 12GB o.Ä. auszugeben, den will ich nicht daran hindern...

Die Zukunft kann natürlich keiner Vorraussagen, aber ich sehe AMD mindestens gleichauf mit nVidia, wenn die API und Treiber wirklich gut optimiert werden, könnte die enorme Rohleistung der AMD-Karten für Überraschungen sorgen. Zumindest ist das meine Hoffnung damit AMD am Markt bleibt, denn ein Monopol seitens Intel und nVidia können wir alle nicht gebrauchen.

Edit: Wenn die ersten Spiele da sind die Wirklich 12GB brauchen, wird die GPU der dazugehörigen Karte sich eh daran verschlucken...
 
Zuletzt bearbeitet:
Ich habe seit einem knappen Jahr 2 R9 290X im Crossfire laufen und kann jedes Spiel (Bsp. BF4, AC:U, FC4, Crysis 3, GTA5) anstandslos in 3840x2160 spielen. Spiele die kein CF unterstützen laufen auch auf einer Karte hervorragend, was allerdings auch auf BF4 zutreffen würde.
Selten so einen Quatsch gelesen, Dragon Age Inquisition ist z.b. mit einer 290x in 4k spielbar, aber weit vom Optimum weg. Witcher 2 mit all den hübschen Mods läuft auf 4k auch nur ohne Ubarsampling mit 60 fps+. Wer bei 4k Antialiasing abstellt hat auch nur einen kleinen Monitor oder schlechte Augen.
4k ist für mich eh uninteressant, Full Hd + 3D würd mir schon reichen wenn das auch mit Witcher 3 und DA:I mit ner Single Karte und 60 Fps+ laufen würden, 4k braucht da deutlich weniger der angeblich brachialen Rohleistung als 1080p mit 3D, da reicht auch leider eine Fury X nicht
 
alxtraxxx schrieb:
Selten so einen Quatsch gelesen, Dragon Age Inquisition ist z.b. mit einer 290x in 4k spielbar, aber weit vom Optimum weg. Witcher 2 mit all den hübschen Mods läuft auf 4k auch nur ohne Ubarsampling mit 60 fps+. Wer bei 4k Antialiasing abstellt hat auch nur einen kleinen Monitor oder schlechte Augen.
4k ist für mich eh uninteressant, Full Hd + 3D würd mir schon reichen wenn das auch mit Witcher 3 und DA:I mit ner Single Karte und 60 Fps+ laufen würden, 4k braucht da deutlich weniger der angeblich brachialen Rohleistung als 1080p mit 3D, da reicht auch leider eine Fury X nicht

da du selbst von dir sagst, 4K sei für dich uninteressant, nehme ich an du hast auch keine große erfahrung damit. Ich spreche hier aus eben dieser, und die ist, dass man bei 4K (auf nem 28" Monitor, keine ahnung ob das für dich klein oder groß ist, mir reichts) auf AA und vor allem downsampling guten gewissens verzichten kann, vor allem letzteres würde wohl sowieso jede aktuelle karte sprengen.

damit sollte auch nur klargestellt werden, dass anständiges 4K spielen mit 2 grafikkarten á 350€ defintiv im bereich des machbaren sind, und 4GB auch locker ausreichen. nicht mehr, und nicht weniger.

dass DA:I mit nur einer karte spielbar sei habe ich auch nie in frage gestellt, und wenn du mit FullHD + 3D glücklich bist/wärst, ist es doch gut, aber wieso soll das denn bitte quatsch sein?
 
alxtraxxx schrieb:
Witcher 2 mit all den hübschen Mods läuft auf 4k auch nur ohne Ubarsampling mit 60 fps+. Wer bei 4k Antialiasing abstellt hat auch nur einen kleinen Monitor oder schlechte Augen.

Das W2 Oversampling ist grottenschlecht. Das bekommt man auch unter 1080p kaum sinnvoll zum Laufen, ohne dabei erhebliche Leistungsverluste in Kauf nehmen zu müssen.
Alles Maximum, kein Oversampling, 1080p 60 fps (hatte glaub noch Framelock drinne, als potenziell noch ein paar fps mehr.)
Alles Maximum, mit Oversampling, 1080p 31fps
Alles Maximum, kein Oversampling, 1440p 48 fps.

Und das auf einer vergleichsweise lahmen 7970.
 
SuddenDeathStgt schrieb:
Ja, in ungeahnte Sphären, die heute noch niemand beziffern kann ... :p

Die FPS werden auch besser wenn sie den CPU Overhead weg bekommen. Da ist NV unter DX11 und Win 7/8 halt deutlich besser. Gerade der Treiber macht da den Unterschied.
 
da du selbst von dir sagst, 4K sei für dich uninteressant, nehme ich an du hast auch keine große erfahrung damit.
Interessante Schlussfolgerung, somit könnte man auch sagen "Jeder der ein Golf fährt hat keine Erfahrung mit schnell fahren". Ich hab mir die Spiele schon alle mal auf 4K angeschaut, aber wie gesagt,
DA:I und Co machen damit keinen Spaß.
Ich spreche hier aus eben dieser, und die ist, dass man bei 4K (auf nem 28" Monitor, keine ahnung ob das für dich klein oder groß ist, mir reichts)
28" sind für mich definitiv klein, da ich nicht 30 cm vor meinem Bildschirm sitze ;) Setz Dich mal vor 40"+ dann wirst Du das fehlende AA bemerken.

damit sollte auch nur klargestellt werden, dass anständiges 4K spielen mit 2 grafikkarten á 350€ defintiv im bereich des machbaren sind, und 4GB auch locker ausreichen. nicht mehr, und nicht weniger.
Soweit ich weiß, sind die 4 GB aber bei GTA5 oder z.B. wenn man Skyrim heftig modded auch mehr als dicht, und kommende Spiele werden ja wohl kaum anspruchsloser werden. Aktuell hat kaum ein Spiel Texturen die in der Auflösung für UHD vorliegen, daher reichts NOCH.
Wenn man nicht vor hat in einem halben Jahr die Karten auszutauschen wäre das aktuell keine sinnvolle Investition ;)

Quatsch war Deine Aussage von wegen alle Spiele problemlos mit 60fps+ spielbar zumindest wenn alles auf Max steht und man
Mods installiert ist das wohl kaum machbar.



Das W2 Oversampling ist grottenschlecht. Das bekommt man auch unter 1080p kaum sinnvoll zum Laufen, ohne dabei erhebliche Leistungsverluste in Kauf nehmen zu müssen.
Alles Maximum, kein Oversampling, 1080p 60 fps (hatte glaub noch Framelock drinne, als potenziell noch ein paar fps mehr.)
Alles Maximum, mit Oversampling, 1080p 31fps
Alles Maximum, kein Oversampling, 1440p 48 fps.
60 FPS mit Ubarsampling ist bei FullHD mit Better Texture Environment und Extreme Quality Flora kein Problem bei mir, läuft durchgängig mit VSync 60 FPS und ohne Einbrüche, hab auch noch SMAA per RadeonPro zusätzlich eingeschaltet.

Die FPS werden auch besser wenn sie den CPU Overhead weg bekommen
Also wenn mein Spiel jetzt schon 100% GPU-Last erzeugt wüsste ich nicht was das bringen soll ;)
 
@alxtraxxx
Bei den meisten Games schalte ich das MSAA auch ab oder setze es auf x2, dafür verwende ich lieber FXAA und AFx16 was deutlich weniger Leistung zieht und bei meinem 24" Zoll Monitor keinen Unterschied macht, was die Grafik betrifft. Wie das bei einem 40" Monitor aussieht weiß ich natürlich nicht, weil ich zum einen keinen habe aber auch weil ich max. 60cm vom Monitor entfernt sitze, da erscheint mir ein 40" Zoll Monitor dann doch etwas überdimensioniert. :D

Aber ich frage mich dann doch auch, wenn man schon auf 4K zockt und ich meine jetzt nicht Downsampling, ob man da überhaupt noch alle Filter nutzen muß, die man zur Verfügung hat, oder ob nicht das Bild ansich durch 4K schon sehr ordentlich aussieht.
 
Aber ich frage mich dann doch auch, wenn man schon auf 4K zockt und ich meine jetzt nicht Downsampling, ob man da überhaupt noch alle Filter nutzen muß, die man zur Verfügung hat, oder ob nicht das Bild ansich durch 4K schon sehr ordentlich aussieht.
Klar sieht das Bild besser aus, aber Aliasing ist ein Effekt der unabhängig von der Auflösung immer auftritt. Auch beim Downsampling hab ich zusätzlich per RadeonPro SMAA eingeschaltet und je nach Spiel noch FXAA, In-Game Anti-Alias habe ich immer an. Bei 4k Downsampling mit und ohne AA in DA:I z.B. sehe ich immer noch deutliche Unterschiede.
Je nach Engine braucht man tatsächling bei hohen Auflösungen kein maximales AA, aber ganz ausschalten tue ich es nie. Und nicht jedes Spiel sieht mit 4k auch besser aus, The Witcher 1 z.B. selbst mit Mods wird grafisch leider auch nicht schicker auf 4k außer dass die Fonts nicht richtig skalieren und man nichts mehr lesen kann X)

Auf meinem Tablet mit 10" und 2500er Auflösung sehe ich auch kaum Aliasing, aber es ist immer noch da wenn ich genau hinschaue ;)
 
alxtraxxx schrieb:
28" sind für mich definitiv klein, da ich nicht 30 cm vor meinem Bildschirm sitze ;) Setz Dich mal vor 40"+ dann wirst Du das fehlende AA bemerken.

ich sitze gut 1,2m von den 28" entfernt ja^^ da sieht mans wirklich nicht. bei entsprechend größeren Bildschirmen hab ich keine zweifel dass man es irgendwann wieder bemerkt.


alxtraxxx schrieb:
Soweit ich weiß, sind die 4 GB aber bei GTA5 oder z.B. wenn man Skyrim heftig modded auch mehr als dicht, und kommende Spiele werden ja wohl kaum anspruchsloser werden. Aktuell hat kaum ein Spiel Texturen die in der Auflösung für UHD vorliegen, daher reichts NOCH.
Wenn man nicht vor hat in einem halben Jahr die Karten auszutauschen wäre das aktuell keine sinnvolle Investition ;)

Tatsächlich verbraucht GTA5 ca. 2,8GB einer Karte, also etwa 70% des Speichers. Halte ich für ausreichend :)
Skyrim hab ich nie dermaßen gemoddet, kann ich mir aber gut vorstellen dass das dann in die Hose geht.
Und ich denke in Zukunft wird so viel mehr Speicher auch nicht viel bringen, weil dann die GPU irgendwann die Nase voll hat (wenn man eine Karte von heute mit 6GB+ nimmt mein ich)

alxtraxxx schrieb:
Quatsch war Deine Aussage von wegen alle Spiele problemlos mit 60fps+ spielbar zumindest wenn alles auf Max steht und man
Mods installiert ist das wohl kaum machbar.

ich habe nie von 60fps+ oder von Mods gesprochen, nur davon dass die Spiele einwandfrei laufen :) und das tun sie auch mit 30fps noch, denn sonst würd ja auch niemand ne konsole haben. AC:U z.B. läuft nur seltenst mit 60fps, BF4 dagegen fast durchgehend.

Falls ich dich irgendwie beleidigt haben sollte (erfahrung 4K), so wars nicht gemeint :)
 
Zurück
Oben