GTX 980 Ti - aber welche?

@Gllobfinger: zum Thema, sieht man einen Unterschied zwischen 4k mit AA vs ohne: wenn du dir die Zeit nimmst (also ergo nicht spielst, sondern dich nur auf Grafik[fehler] konzentrierst), sieht man einen Unterschied.

Allerdings ist der so gering, dass man in 4K (in meinen Augen) auch getrost auf AA verzichten kann. Mit anderen Worten: mir fällt das fehlende AA nicht negativ auf. Im Gegenteil: ich empfinde das "knackscharfe" 4k auf meinem http://www.acer.com/ac/de/DE/content/series/s7 als angenehmer, als das leicht verwaschene AA Bild.

Natürlich wirst du - wie gesagt, wenn du aktiv danach suchst - ab und zu sehr filigrane Treppchen entdecken, allerdings empfinde ich die als nicht störend.

Die Pixeldichte meines 27 zoll 4k Monitors ist so hoch, dass man wirklich mit der "Lupe" suchen muss, doch dann spielst du freilich nicht mehr, sondern suchst nach Fehlern ;)

Alles in allem bin ich mit der 4k Erfahrung und der Strix 980 TI OC sehr zufrieden - man muss einfach etwas mit den Grafikeinstellungen experimentieren und nicht alles "blind" auf ultra stellen und sich dann wundern, warum es stottert ;)

Wie gesagt, ich finde die nvidia guides wirklich sehr ausführlich und informativ: http://www.geforce.com/whats-new/guides - wenn man sich die Zeit nimmt, kann man ja mal auf den Screenshots dort den womöglich kaum sichtbaren Unterschied zwischen (very) "high" und "ultra" zu Gemüte führen ;)
 
Wow, eine R9 Fury bei 51,1 FPS und eine 980 TI nur bei 43,5 FPS. Was eine Fury X wohl mit der 980 Ti anstellt?
Hammer wie sehr DirectX 12 auf AMD Karten abrockt. Sogar eine alte 290X ist gleich auf mit der 980 Ti.
 
Oh ja, es kommt wohl endlich die Zeit zurück in der wieder die wahrhaftige Rechenleistung eines GPU-Chip´s für die Menge der ausgegebenen Frames verantwortlich ist.

980Ti -> 2816 Shader -> 5632 GFLOPS
290X -> 2816 Shader -> 5632 GFLOPS

TitanX -> 3072 Shader -> 6144 GFLOPS
Fury -> 3584 Shader -> 7168 GFLOPS
FuryX -> 4096 Shader -> 8602 GFLOPS

Auch QB nutz AsyncShader und so bringen die AMD-Karten endlich Ihre Leistung auf die Straße.
Und nichts anderes ist aus vielen Benchmarks der letzten Wochen abzulesen.

Back to the Roots und zur Ehrlichkeit!
 
Da jetzt mehrfach auf DX12 verwiesen wurde und ich mich nochmal ein wenig mit dem Thema beschäftigt habe ist eine Nvidia-Karte eig. kein Thema mehr. Zumal Total War: Warhammer bereits DX12 unterstützt und es abgesehen von einem weiteren Spiel das einzige ist was mich derzeit auf dem Spielemarkt interessiert. Das andere Spiel ist ARK Survival Evolved, das wohl auch demnächst unter DX12 laufen soll. Obwohl es da noch derzeit einige Probleme bei der Umsetzung gibt... aber das wäre jetzt ein anderes Thema.

Ich habe mir daraufhin ein paar Fury X Karten angeschaut und mich darüber gewundert das eine deutlich teurere und schnellere Karte nur 4GB VRAM im Gegensatz zu meiner R9 390 mit 8GB VRAM hat. (Ob man nun 8GB VRAM wirklich braucht oder nicht wäre auch ein anderes Thema).
Auf jeden Fall bin ich dabei auf diesen Artikel gestoßen.

http://www.computerbild.de/artikel/...rafikkarten-GPU-2016-AMD-Nvidia-15023547.html

Der interessanteste Teil hierbei ist dieser:

AMD führte mit der aktuellen Grafikkartengeneration erstmals „High Bandwidth Memory“ (kurz: HBM) ein. Die aufeinandergestapelten Speicherblöcke erzielen einen deutlich höheren Datendurchsatz als die verbreitete GDDR5-Technik. Problem: Die erste HBM-Generation bietet maximal „nur“ 4 Gigabyte (GB) – perspektivisch zu wenig für 4K und VR. Seit Mitte Januar 2016 ist der HBM2-Standard festgelegt – spezifiziert mit derzeit maximal 32 GB. Von Samsung ist bekannt, dass der Hersteller bereits HBM2-Chips produziert. Die verbaut AMD sicher in die Polaris-Serie.

Hat jmd. genauere Infos dazu. Es handelt sich ja eher um eine Spekulation das die Polaris mit den HBM2-Chips bestückt werden.
Auf jeden Fall wäre das ein Grund für mich doch noch zu warten.

Ich werde mir auf jeden Fall dieses Wochenende das Benchmark-Tool "3Dmark" besorgen um DX12 (und den Leistungszuwachs) mit eigenen Augen sehen zu können.
 
Moin,
Vega 10 könnte interessant werden mit 8GB HBM, Vega 11 denke ich eher nicht. Wenn der Chip so kommt wie 3dcenter vermutet liegt der bestimmt bei rund 1000€.
Sicherlich muss man sich vor Augen führen, dass mit den wirklich dicken Karten von Nvidia als auch AMD, in ausreichender Verfügbarkeit, erst zum Ende des ersten Quartals 2017 zu rechnen sein wird. Steht dann die Frage im Raum ob du so lange warten möchtest?

Zum Thema, reichen 4GB HBM aus? Ich selbst kann nur sagen, dass ich die in 4K noch nicht voll bekommen habe.
Schade ist, dass keine wirklichen Test´s zum Vergleich zwischen HBM und GDDR5 zu finden sind. Denn wie ich schon gestern geschrieben habe verhält sich der Speicher gefühlt deutlich anders als bei meiner vorherigen 290X mit 4GB GDDR5.
Ob andere Komprimierungsverfahren oder nicht aktives/benötigtes MSAA, ich kann es nicht erklären.

Wenn du einen bestimmten Anwendungsfall hast kann ich anbieten das ggbfs. mal für dich nachzustellen.

Deinen Gedankenansatz von 8GB GDDR5 auf nur 4GB HBM "zurückzugehen" kann ich grundsätzlich voll und ganz nachvollziehen. Aus eigener Erfahrung nach jetzt 4 Monaten mit der FuryX würde ich aber sagen die Befürchtungen sind unbegründet.

Schönen Samstag allen
 
cruse schrieb:
DSR heisst das Zauberwort. AA komplett weglassen.
(Einstellung: In der Nvidia Systemsteuerung, dann Ingame auf die höhere Auflösung wechseln)
Kannst es ja in einem game deiner Wahl mal selbst ausprobieren. Die FPS musst du dir dabei einfach wegdenken ;)

Aber das Ergebnis kannst du da schonmal sehen - jedenfalls grob, auf nem echten 4k gerät ist es nochmal ne kleine spur besser

huh? Das verstehe ich nun nicht.

Welche Einstellungen und wo genau? (genaue Bezeichnung ohne Kürzungen bitte)

ich habe 5240x1050 als Auflösung (nv-serround). da währe das mal intressant. ^^
 
So, jetzt hat das Thema ja doch mehr Zeit in Anspruch genommen als ich gehofft hatte.
Aufgrund dessen das DX12 immer mehr im kommen ist und alles darauf hindeutet das die AMD-GPUs da richtig drauf abgehen werden, habe ich mich auf die R9 Fury X festgelegt.

Ich schaue mir gerade Vergleichstest an, könntet ihr mir eine Empfehlung geben?
 
Warte doch die 2-3 Monate bis die Karten im Handel Sind ab.


Klar es juckt grad in den Fingern,aber falls du wartest bekommst auch mehr leistung:D
 
ich empfehle zu warten bis die neue generation kommt, da 980ti nicht den shader bei dx 12 unterstützt, oder auf amd wechseln^^
 
Bei einer FuryX würde ich Sapphire oder Asus empfehlen. Die Asus hat den Vorteil, dass es 3 Jahre Garantie gibt.
Am Ende kommen aber ja alle FuryX im Referenz-Design direkt von AMD und nehmen sich dann nichts.
 
Pumpenfiepen habe ich bei meinem Modell überhaupt nicht. Beim Einschalten gluckert es vllt mal für 2 Sekunden, man hört eben wie sich das Wasser in Bewegung setzt, aber dann ist wirklich direkt Ruhe.
Es gibt keinen Zero-Fan Modus, dessen sollte man sich bewusst sein. Der Lüfter dreht immer mit 15% bei 970rpm (idle 28°C bei mir), ziemlich leise.
Und dann bestätigt der PCGH Lautstärke Test eigentlich wie der Alltag aussieht. Die haben unter Last 1,5 Sone gemessen mein ich. Maximal war der Lüfter bei mir mal bei 30% (1500rpm) in Witcher3, hat zumindest GPU-Z zwischenzeitlich aufgezeichnet (Im Gehäuse dabei 1 x 140mm einsaugend vorne, 1 x 120mm raus oben + der FuryX Radiator hinten raus, Netzteil dabei Luft ansaugend direkt von unten).So lieg ich beim Gaming zwischen 45-65°C.
Außer meiner passiv gekühlten 8600GT früher,habe ich noch keine leisere GPU gesehen.

Aber genug geschwafelt von meiner Seite, die FuryX leidet nicht unter Pumpenfiepen und ich bin fest überzeugt, dass der TE mit dieser Karte eine gute Wahl trifft.
 
Zuletzt bearbeitet:
Hat mal wieder alles etwas länger gedauert aber heute habe ich meine neue Grafikkarte und Monitor erhalten.
Ich habe mich jetzt für die Asus aufgrund der 3 Jahre Garantie entschieden.
Die ersten Tests sehen super aus. Werde das Wochenende intensiv zocken... bis mir die Augen bluten :D
Danke nochmal an alle für die tolle Beratung!
 
Zurück
Oben