Alternate 4

Kaufberatung Grafikkarte: 1440p 4 Grafikkarten zur Auswahl

Furiad schrieb:
Bei dem Versuch die Shader zu aktivieren würde man wahrscheinlich auch die Garantie verlieren oder?^^

Wenn es nur durch ein BIOS-Update geht, dann ja. Ebenso wie die Garantie bei OC weg ist, wenn der Hersteller nicht kulant ist.
 
Zuletzt bearbeitet:
rg88 schrieb:
Natürlich kann es auf einer Fury dann noch laufen.
Das ist ja käse, dass das Spiel nicht läuft. laufen wirds auf allen Karten. Du musst halt, wenns an die Leistungsgrenzen geht später die Qualität runterschrauben.

Spiele wie GTA 5 laufen nicht einmal mit einer 980ti konstant mit 60fps auf 1440p mit Ultra-Settings.

Hier sieht man schön, dass gerade Witcher 3 eher von Nvidia Karten profitiert: https://www.youtube.com/watch?v=D40LvUtOcCg
Und hier sieht man die marginale Differenz einer Fury zur 390X in Witcher 3 bei 1440p: https://www.youtube.com/watch?v=HBp4ANrX8rk

4fps Unterschied zwischen einer 390X und einer Fury. Da sieht man auch schön, dass eine 980 auf gleichem Level wie eine Fury ist, wenn es um 1440p geht. Und da der TE explizit TH3 angesprochen hat, das nun einmal besser auf Nvidia-Karten läuft, muss er selbst entscheiden, was ihm wichtiger ist.

Und hier mal GTA 5 auf 1440p mit einer 390 auf sehr hohen Settings: https://www.youtube.com/watch?v=FyaqsqJ5w5Y

Die 390X ist ein Hitzkopf, weil sie eben eine unglaubliche Abwärme erzeugt. Das tut aber auch eine 390 und eine Fury.
 
Zuletzt bearbeitet:
Die 980 ist eigentlich schon den kompletten Thread lang rausgefallen :D

Eigentlich gehts nur noch drum, was der TE für sich als den optimalen Weg aus Preis und Leistung raussucht
 
Hey, vielen Dank für die ganzen Antworten.
Werde mir mal die Videos und noch Tests anschauen und nochmal für mich selbst klar stellen, was mir eigentlich wichtig ist.
Ich möchte nämlich nicht nur wegen TW3 eine Nvidia Karte kaufen. Das ist schon mal klar.
Somit fällt die GTX 980 schon mal weg.

Edit:
Ehrlich gesagt - nachdem ich die Videos gesehen habe - möchte ich jetzt auch nicht 100€ für 4FPS ausgeben... natürlich kommt es immer auf das Spiel an aber die 9% die hier schon angesprochen wurde ist ja auch nicht grade so dolle...
Da wäre die 390x so das Mittelding

Somit bleiben die 390 und 390x über...
 
Zuletzt bearbeitet:
@Sku: Einen Gameworks Titel anzuführen als ausschlaggebendes Argument finde ich ehrlich gesagt alles andere als einen seriösen Beitrag. Außerdem spielt er noch mehr Titel.
Und sprachst nicht gerade du von den wenigen Prozent Leistungsunterschied und benutzt genau die gegenteilige Argumentation jetzt pro Nvidia? :freak: Korrigiere mich, wenn ich was falsch verstanden habe
 
Zuletzt bearbeitet:
naja man sieht, dass eine 390x fast so schnell wie die deutlich teurere 980 ti ist. oder was meinst du? bei der temperatur unter last nehmen sich fury und 980 nichts, laut test beide 80 grad C. von einer nvidia karte würde ich wegen des dx12-magels derzeit grundsätzlich die finger lassen. asynch compute ist ein wichtiges feature von dx12, was auf radeon hardware 20 bis 40 % leistungsschub liefert und bei nvidia minimalen leistungsverlust bedeutet. daher ist das aus meiner sicht derzeit keine option, nvidia für dieses doch recht hohe budget zu kaufen.
 
Wie gesagt, ich bin auch einen Kompromiss eingegangen und habe mir für 330€ eine Sapphire R9 390 Nitro OC zugelegt. Die Leistung der Karte reicht mir momentan völlig aus für 1440p. Ich habe aber auch nicht den Anspruch alles auf Ultra spielen zu wollen. Und eine Fury hat den gleichen Kühler wie eine 390X oder 390. Der Kühler der 390 ist der gleiche Tri-X Kühler wie auf der 390X. Und der Kühler kommt auch auf der Fury zum Einsatz. Im Idle sind alle Karten unhörbar, da die Lüfter nicht laufen, wenn das Gehäuse gut belüftet ist. Und unter Last läuft meine Nitro gerade einmal mit 35% Lüftergeschwindigkeit. Und wem das zu viel ist, der kann sich eine Lüfterkurve anlegen. Damit hebelt er aber auch die Funktion der Lüfterabschaltung aus. Jedenfalls ist das bei Sapphire so.
 
390x fast so schnell wie eine 980ti? O_o

Und Async Compute weiß man bisher immer noch nicht wieviel es wirklich bringt und ab wann. Schaut man sich Ashes an liegen die 980ti mit Dx11 nah an der FuryX mit Dx12. Kauf dir das was dir am meisten zusagt, aber gerade auf das Shader freischalten würde ich mich nicht verlassen, hab bisher 3 Furies verbaut wo man das machen konnte aber jede der Karten war danach instabil oder hatte andere Probleme...
 
Beschränke dich nicht auf 1440p. Ich habe mir die Fury X auch für meinen 1440p Monitor zugelegt und gemerkt dass ich viele Spiele auch (mit Anpassungen natürlich) auf UHD (oftmals 4K genannt) mittels VSR spielen kann und das soooo viel besser aussieht. Die Fury kann unter 1440p ihr Potential nicht ausschöpfen aber wenn du Interesse an 4K Gaming hast würde ich dir diese empfehlen.

Ich zocke momentan Shadows of Mordor, GTA 5 und Farcry 4 auf UHD mit recht passablen Frameraten.
 
rg88 schrieb:
@Sku: Einen Gameworks Titel anzuführen als ausschlaggebendes Argument finde ich ehrlich gesagt alles andere als einen seriösen Beitrag. Außerdem spielt er noch mehr Titel.
Und sprachst nicht gerade du von den wenigen Prozent Leistungsunterschied und benutzt genau die gegenteilige Argumentation jetzt pro Nvidia? :freak: Korrigiere mich, wenn ich was falsch verstanden habe

Gameworks-Titel laufen aber eben nun einmal besser auf Nvidia. Und bei 1440p holen die AMD-Karten auf. Bei 1080p sieht das schon wieder ganz anders aus. Wenn es aber um AMD geht, sieht man hier die marginale Differenz zwischen Fury und 390X. Und dafür 100€ mehr zahlen? Dann spare ich lieber 100€ und nehme 8GB VRAM statt 4GB HBM.

Und die Videos habe ich auch nur angeführt, weil The Witcher eben eine Rolle spielt beim TE. Ich bin hier weder pro Nvidia, noch pro AMD. Aber mein Verstand sagt mir, dass ich keine 100€ mehr für 4fps mehr ausgebe. Das steht in keinem Verhältnis zum Preis.

Letztendlich, egal um welches aktuelle Spiel es geht, keine der genannten Karten wird Ultrasettings mit konstanten 60fps auf 1440p schaffen. Abstriche muss man überall machen.
 
@Sku: Mit der Fury hat er halt auch noch Reserven für eventuelles Downsampling. Preisleistungstechnisch gibts natürlich aktuell nichts besseres als die 390. Das ist natürlich klar.

Ich gehe mal gewaltig davon aus, dass sich dieser Schmu mit den Nvidia optimierten Titeln ala Gameworks mittlerweile ereledigt hat. Keine neue Spielengine wird mehr auf DX11 setzen. Mit DX12 und Vulcan werden die Karten wieder fair verteilt, weil der Treiber bzw. sinnlose Optimierungen nicht mehr zu einem großen Vorteil führen sondern die Hardware endlich mal der Leistung entsprechend voll ausgenutzt wird.
Dass Nvidia async compute defintiv nicht hardwaretechnisch unterstütz mit den aktuellen Karten ist nunmal Fakt. In wieweit sich das in naher Zukunft noch auswirken wird, kann niemand voraussagen.
Aber eins steht fest und damit mein ich vorallem Igoo:
Man muss Tests auch richtig interpretieren können. Es geht beim Ashes Benchmark-Bericht nicht darum, wie die einzelnen Karten gegeneinander abschneiden, sonder wieviel Steigerung bei der selben Karte durch Wechsel von dx11 zu 12 aktuell drin ist.

Wenn man die Benchmarks unter der Prämise anschaut, ergibt sich da ein gewaltig anderes Bild bezüglich Wichtigkeit von async compute:
https://www.computerbase.de/artikel...diagramm-ashes-of-the-singularity-1920-x-1080
 
rg88 schrieb:
Ich gehe mal gewaltig davon aus, dass sich dieser Schmu mit den Nvidia optimierten Titeln ala Gameworks mittlerweile ereledigt hat. Keine neue Spielengine wird mehr auf DX11 setzen. Mit DX12 und Vulcan werden die Karten wieder fair verteilt, weil der Treiber bzw. sinnlose Optimierungen nicht mehr zu einem großen Vorteil führen sondern die Hardware endlich mal der Leistung entsprechend voll ausgenutzt wird.

https://developer.nvidia.com/conten...creases-pace-innovation-unreal-engine-4-games

Gameworks wird es auch unter Directx12 geben und keine Dx11 Titel würde den Markt massiv reduzieren, in meinem Freundeskreis werden sicherlich 50-60% in den nächsten Jahren nicht wechseln weil sie keine Lust auf W10 haben. Bis VUlkan marktreif ist wird es auch noch dauern. SOll man dann weiterhin mit angezogener Handbremse in diversen Spielen fahren? Es ist leider nicht so einfach heutzutage.

Die Steigerung von AMD zu Nvidia ist keine Überraschung gewesen, wir wussten alle das Directx11 Treiber von AMD Müll waren und oftmals limitierten, das gab auch den Ausschlag für mich eine 980ti einer FuryX die immer noch nicht wirklich gut verfügbar ist zu kaufen.

Mir ging es vor allem um dieses hier: http://prntscr.com/8jqmnm

Full HD ist für mich nicht mehr interessant.
 
Zuletzt bearbeitet:
Es geht beim Ashes Benchmark-Bericht nicht darum, wie die einzelnen Karten gegeneinander abschneiden, sonder wieviel Steigerung bei der selben Karte durch Wechsel von dx11 zu 12 aktuell drin ist.

Nö darum gehts nicht am Ende zählt nur was hinten rauskommt. Wenn AMD mit DX 11 und dem CPU Overhead nicht in die Pötte kommt ist das deren Problem (auch wenn sie dafür evtl gar nicht die Ressourcen hätten).

Durch DX 12/Vulkan wird sich dieser Malus aber von selbst beseitigen (bei zukünftigen DX11 Titeln bleibt er aber bestehen), der wahre Vorteil AMDs ist derzeit schlicht : "Je höher die Auflösung desto besser die Performance gegenüber der Konkurrenz". Bei 4K wiegt auch ein DX 11 Overhead nicht mehr so schwer.

Ach ja wenn es jemanden interessiert. Es gab für mich 2 Gründe auf Performance zu verzichten und auf die FuryX zu setzen:

1. Die Verarsche bei der GTX 970 wollte ich nicht mittragen
2. Der eigentliche Grund: Ich werde mir sicher keinen Gsync Monitor kaufen, dessen Technik 100% Nvidia Exklusiv bleiben wird und deutlich mehr kostet.
 
Zuletzt bearbeitet:
@Dai6oro: Glaube schon, dass das so richtig ist, was ich geschrieben habe. Das ist ja auch nur ein potentieller Zukunftsausblick. An den aktuellen Leistungen unter DX11 ändert das natürlich nichts. Sehe das DX12-Potential aber schon als potentiellen fetten Bonus an, der eine Karte eben vielleicht noch 1-2 Jahre länger durchhalten lässt als eine aktuell vergleichbare Nvidia-Karte.
Dass Nvidia die Karten aktuelle im Rahmen der möglichenkeiten maximal ausreizt sieht man denk ich auch deutlich an dem Bericht.
Aus einer 970 z.B. kann unter dx12 gar nichts rausgeholt werden an Mehrleistung zu DX11, sie ist also schon total am Limit, was die Leistungsfähigkeit anbelangt. Bei den Radeons liegt da anscheinend noch gewaltig Potential brach.

Alles natürlich unter Vorbehalt und mit dem Hinweis, dass es sich um einen einzelnen Benchmark handelt. Dennoch ist die Tendenz eigentlich sehr krass wie ich finde
 
Lasst uns das am besten hier stoppen Dx12 gehört woanders hin, nur noch als Vermerk: Wir wissen das Dx12 momentan unter Nvidia noch nicht richtig funktioniert bzw der Treiber nicht fertig ist. Bis zum Release der Spiele wird noch viel Zeit vergehen. Alte Spiele werden auch nicht spontan schneller laufen weil die weiterhin bei Dx11 bleiben werden, dem sollte man sich klar sein und seine Entscheidung daran festmachen. Neue Spiele unter Dx11 werden auch nicht besser laufen und davon werden noch einige kommen, da Dx12 deutlich anspruchsvoller für die Entwickler sein wird und nicht jeder sich das antun will. Es gibt auch Dx12 Features die AMD nicht beherrscht/emulieren werden muss die unter Umständen dort Leistung kosten können, da haben wir dann nachher wieder die selbe Diskussion nur umgekehrt. Gameworks wird z.B. in einigen neuen Engines von Hause aus dabei sein. Also wird die Verbreitung je nachdem sogar zu nehmen, potenziell z.B. jedes Spiel welches mit Unreal 4 Engine erstellt wird.
 
Dai6oro schrieb:
und dem CPU Overhead nicht in die Pötte kommt ist das deren Problem (auch wenn sie dafür evtl gar nicht die Ressourcen hätten)

ich glaube nicht, dass es daran liegt. Die Architektur ist wohl einfach mit der alten Technik nicht gut genug auszulasten. Wenn es mit Treiberoptimierungen in den Griff zu bekommen wäre, hätten sie sicher nicht so einen enormen Aufwand betrieben mit der Entwicklung von Mantle. Nur das trieb Microsoft dazu endlich zu handeln und DX12 endlich fertig zu entwickeln, weil die Gefahr bestand sonst komplett den Anschluss zu verlieren.
AMD hat durch Mantle mehr erreicht als Nvidia mit allen Gameworks und sonstigen Schikanen zusammen. Anstatt die Konkurrenz künstlich auszubremsen werden endlich alte Zöpfe abgeschnitten:
DX11 ist Geschichte -> DX12 endlich da
OpenGL ist Geschichte -> Vulcan folgt
Und das ohne unlautere oder zumindest fragwürdige Instrumente einzusetzen
 
Also wird die Verbreitung je nachdem sogar zu nehmen, potenziell z.B. jedes Spiel welches mit Unreal 4 Engine erstellt wird.

Und Async Shaders sind potentiell in jedem Konsolenport da drehen wir uns im Kreis das führt zu nix. Ich würde folgendes sagen:

R9 390 ist die P/L Entscheidung aber hat von allen anderen am wenigsten Power. Wer nicht alles auf max spielen muss ist hier dennoch gut bedient.
R9390X ist zu teuer für das geringe Leistungs + in Relation zur R9 390
GTX 980 ist teuer aber performant von 1080p bis UHD mit hohem OC Potential
R9 Fury Tri X Leiseste High End deren Fokus auf UHD mit VSR liegen sollte

ich glaube nicht, dass es daran liegt. Die Architektur ist wohl einfach mit der alten Technik nicht gut genug auszulasten.

Das mag sein dass AMD hier auf eine schnelleren Einsatz von Low level APIs und parallelen Berechnungen gesetzt hat und weil diese nicht kamen als Druckmittel Mantle gebracht hat. Aber ein ähnliches Schicksal hat Bulldozer ereilt. Wenn man am Markt vorbeientwickelt (oder der Zeit voraus ist) wird das nur selten honoriert. Das macht Nvidia deutlich besser. Sie positionieren sich an den aktuellen Bedürfnissen auch wenn das bedeutet, dass man evtl. früher nochmal kaufen muss.
 
Zuletzt bearbeitet:
@igoo: Wenn schon die Diskussion aus deiner Sicht gestoppt werden soll, dann solltest du nicht selbst einen Satz danach wieder damit anfangen.

Zu deinem Beitrag:

- Die alten Engines werden eben wegen der viel schlechteren Hardwareausnutzung zwangsweise sterben und in DX12 überführt werden müssen.
- Gameworks und ähnlicher Dreck bringt in DX12 nichts mehr, weil die API (DX12 oder Vulcan) die Arbeit übernimmt und nicht mehr so Hardware- und Treibernah programmiert wird wie in DX11.
- Für Entwickler ist das viel mehr ein Segen. Keine großen Optimierungen mehr für die jeweiligen Hersteller nötig. Oder warum meinst du, dass Studios Gameworks nutzen? Weil Nvidia ihnen dafür Geld und/oder Entwickler bereitstellt. Wenn von Nvidia bezahlte Entwickler dran arbeiten, dann werden die sicherlich nicht versuchen die Engine möglichst performant auf beide Hardware-Basen auszulegen.
- Die DX12 Features die von den GCN-CPUs nicht unterstüzt werden haben nur in den seltensten Fällen was mit Leistung zu tun. Wenn ein Feature auf der Radeon nicht vorhanden ist, dann gibts eben dieses oder jenes Grafikfeature nicht und ein paar Details sind nicht vorhanden. Aber so eine zentrale Sache wie Async Compute nicht zu unterstützen ist fatal. Denn daher kommt der größte Teil der Mehrleistung von DX11 zu 12
Ergänzung ()

Dai6oro schrieb:
Aber ein ähnliches Schicksal hat Bulldozer ereilt. Wen man am Markt vorbeientwickelt (oder der Zeit voraus ist) wird das nur selten honoriert.

Der Vergleich hinkt aber leider. Denn im Gegensatz zur x86-Technik, die sehr wenige Spielräume lässt, muss eine GPU-Architektur quasi nur eine Schnittstelle anbieten die sie mit Daten füttert. Dadurch sind auch diese gewaltigen Computing-Leistungssteigerungen drin die es mit jeder neuen Generation gibt. Eben weil einfach die komplette alte Architektur weggeschmissen werden kann und durch eine neue ausgetauscht werden kann, wenn die alte ausgereizt ist.
 
Als ob spontan alle alten Engines "aussterben", Das ist unwirtschaftlich und ist nie passiert. Selbst heute kommen noch Dx9/10 Titel raus. Gameworks funktioniert und ist bereits implementiert in einigen Engines. Unreal 4 Engine ist eine Dx12 Engine und die wird nicht nur bei 5-6 Titeln genutzt werden, diese hat trotzdem Gameworkscode und setzt ihn auch ein -> AMD wird es wieder nicht nutzen können, das sind nicht nur Optimierungen sondern ganze Effektbibliotheken etc. die es Entwicklern vereinfachen Spiele zu entwickeln, warum sollte ich auf Dinge verzichten die mir die Arbeit erleichtern? Programmierer sind auch nur faule Menschen und keine Pseudo-Halbgötter die lieber den schwereren Weg gehen. Ich glaube du stellst dir das viel zu schwarz/Nvidia und weiß/AMD vor. Das ist auch das letzte was ich dazu schreibe, das hat schon wieder viel zu viel mit Fanboytum und Wunschdenken zu tun. Es gab auch schon einige Entwickler die berichtet haben das Treiberoptimierungen trotzdem noch wichtig sein werden, weil alles kann nun einmal auch eine lowlevelapi nicht übernehmen.

Gute Nacht, morgen wird ein langer Tag.
 
Zuletzt bearbeitet:
Sapphire Forum
Zurück
Oben