2. GTX 980 dazukaufen Skalierung Platz NT etc.

Ich habe seit knapp nem halben Jahr zwei GTX 980 im SLI laufen. Netzteil ist ein 600w von bequiet.
Die Leistung ist wirklich brachial, und noch ein gutes Stück fixer als eine Titan X,
trotzdem würde ich mir heute wegen des Vrams eher eine Titan X kaufen oder auf die neue Radeon warten.

Die Mikroruckler-Problematik finde ich weniger schlimm....man muss dort je nach Spiel unterscheiden.
In manchen Games hat nvidia derart gute Optimierungsarbeit geleistet, dass man selbst unter 50 fps nichts bis kaum etwas
davon merkt. Witcher 3 ist hier so ein Beispiel. Ruckler merkt man hier erst ab unter 45 fps und kann dann auch schön sehen wie die Frametimes unregelmäßig werden.

Bei den weniger gut optimierten Spielen muss man einen Framelimiter setzen, so hat man die Mikroruckler auch erstmal umgangen.

Du solltest bei alledem aber immer bedenken, dass SLI kein Plug&Play ist...oftmals musst du selbst noch Optimierungsarbeit leisten oder
nach SLI-Profilen im Inspector suchen. Mir persönlich macht das sogar Spaß, aber das ist sicherlich nicht jedermans Sache.
 
Danke, gut auch mal jemanden zu lesen, der genau dieses Setup bereits nutzt.
Wirklich idiotisch von mir ein 530w NT gekauft zu haben, bissl größer und ich hätte es weiter nutzen können.
Du nutzt dann wahrscheinlich das normale E10? Denke mal das E10 mit 700 Watt wäre dann optimal, außer ich nehme AMD (falls es immer noch viel Strom frisst).

Ja, wegen Vram und der neuen Generation von Radeon werde ich sowieso erstmal warten, zumindest bis da ein Release Datum offiziell feststeht.
Naja, mit Titan X kaufen ist halt so die Sache. Erstmal hast du natürlich je nach Spiel ein Plus von 20% in der Leistung im Gegensatz zur Single 980, aber im Gegensatz zu 980 SLI hat sie rein von der Leistung nur den Stabilitäts- und Vram Vorteil.
Dafür dann etwa den selben Preis wie für 2 GTX 980 finde ich etwas übertrieben. Und wenn wir mal ehrlich sind, reicht in der Auflösung eigentlich auch keine Single Titan X.

Was auf jeden Fall klar ist: Direct x 12 kommt im Sommer mit Windows 10. Höchstwahrscheinlich werden also auch kommende Spiele ab Winter die neue API nutzen. Die 980 unterstützt Directx12 und es sieht so aus, als ließe sich da der Vram durch eine andere Methode stacken. Wichtig ist natürlich dabei, das Spiel muss dafür auch optimiert sein. Sprich, ich müsste so wie es aktuell aussieht mit den 980er SLI und den 4GB Vram nur noch bis Ende/ Anfang des nächsten Jahres auskommen, und da ich aktuell gar keine Probleme mit den 4GB habe, klingt das für mich zumindest sehr überzeugend, über den geringen Vram hinwegzusehen.

Deshalb steht für mich nun immer noch 980 SLI an erster Stelle. Mal sehen was in den nächsten Wochen so passiert. Schwierig wirds nur, falls ich mal eine 980 im Angebot oder sehr günstig erwische. Aber gut, die würde man schon zur Not irgendwie wieder los werden.
 
Dann warte doch erstmal die 2 Wochen bis zum Release der 980 Ti. Die Karte mit einem schicken Custom-Kühler und übertaktet sollte der Titan X doch mehr als das Wasser reichen können. So haste evtl noch etwas mehr Leistung, 6 Gig Vram und musst nicht 1k Euro ausgeben.

Falls die Karte dann doch nicht so der Bringer ist, haste immernoch die Option auf eine normale GTX 980 die dann wiederrum auch noch ein wenig günstiger werden könnte.

Edit: Hab das E10 bequiet.
 
DmC schrieb:
Die 980 unterstützt Directx12 und es sieht so aus, als ließe sich da der Vram durch eine andere Methode stacken. Wichtig ist natürlich dabei, das Spiel muss dafür auch optimiert sein.

Wo hast du das her? Das würd mich ja mal interessieren.
Bisher hab ich dazu nur was über Mantle gelesen. Auf AMD-Karten. Bei Spielen, die Mantle unterstützen. Und auch das ist noch nicht fest.

moshkopp schrieb:
Dann warte doch erstmal die 2 Wochen bis zum Release der 980 Ti.
Warum 2 Wochen? Ich dachte die wird am 2. Juni vorgestellt? Die Computex endet am 6. Juni. Das ist auch nur ne Woche :D

moshkopp schrieb:
Die Karte mit einem schicken Custom-Kühler und übertaktet sollte der Titan X doch mehr als das Wasser reichen können. So haste evtl noch etwas mehr Leistung, 6 Gig Vram und musst nicht 1k Euro ausgeben.

Ne stimmt. Sondern nur 850 Euro. Wenn man jetzt davon ausgeht, dass die Titan vielleicht noch ein bisschen günstiger wird (realistisch) dann sind das 100 Euro weniger. Sicher, dass bei so einer hohen Summe die 100 Eure mehr nicht lohnen für die 6GB VRAM und die stabilere Leistung?
 
DmC schrieb:
Stimmt schon, habe da nur Angst vor den CF Profilen..
Angeblich soll es ja mit Directx12 möglich sein, dass die Grafikkarten den Vram besser nutzen können, also mehr als die 4GB pro Karte bei rumkommt. Weiß da jemand was genaueres?

Die CF Profile sind im Treiber integriert.
Das ist wie bei Nvidia...
Nur hast du bei AMD 8 GB Vram, und eine (in 4K) gleich schnelle, und günstigere Karte.
 
Wolfsblvt schrieb:
Wo hast du das her? Das würd mich ja mal interessieren.
Bisher hab ich dazu nur was über Mantle gelesen. Auf AMD-Karten. Bei Spielen, die Mantle unterstützen. Und auch das ist noch nicht fest.

Tja, sicher ist da wahrscheinlich nichts, zumindest gibt es keine offizielle Quelle. Das einzige was wohl feststeht ist, dass Directx12 ähnlich wie Mantle eine Low Level Api ist. Bin kein Pro in dem Thema, aber ich habe es so verstanden, dass dieses Vram Stacking aufgrund der Art, wie Low Level Api funktioniert, generell möglich wäre. Nur schätze ich mal, dass Mantle einfach nicht weit genug war, bzw. die Consumer dafür auch fehlten. Directx12 dagegen wird ja von den meisten genutzt werden. Im Groben geht es wohl darum, dass die Bilder im SLI bzw. CF anders berechnet würden. Deshalb halte ich es eben für möglich.
Aber das werden wir auch in den nächsten Wochen erfahren denke ich mal. Sollte es wirklich so werden, hätteste eben mit Directx12 unterstützenden Games ein bissl mehr als 12GB oder sogar 24GB, wäre sicher auch nicht so verkehrt.
Falls ich irgend nen Mist laber, bitte korrigieren.

HisN schrieb:
CF hat übrigens die gleichen Probleme wie SLI.
http://www.hardwareluxx.de/communit...-3-und-project-cars-1074488.html#post23528446 Neuer Beta mit CF-Profil für Witcher3 und das Ergebnis bei manchen :-)

Eben. Stardrink hat ansonsten schon recht und ich habe auch erwägt mir einfach eine R9 290x mit 8GB als CF zu nehmen.
Allerdings wusste ich bspw. schon, dass es besonders bei Witcher große Probleme damit gab und so sogar eine einzelne R9 290x besser lief als 2. Im Moment ist mir das mit SLI bzw. CF etwas zu risikoreich. Und als Single Karte ist die GTX 980 aktuell ziemlich gut aufgestellt. Ich warte mal ab, ob es unter Windows 10 besser läuft.

Ansonsten.. Ich habe mir auf Ebay einen LG 34UM95-P ersteigert. Dafür verkaufe ich meinen 4k Monitor wieder.
Habe nun von mehreren gehört, dass es für Gaming einfach viel mehr Sinn macht, auch von der Leistung her.
Klar, so kann ich Witcher 3 auch nicht auf Maximum flüssig spielen, aber es ist nun immerhin auf hohen Einstellungen spielbar.
Wie es mit einer GTX 980 so läuft, werde ich im Laufe der Woche berichten.
 
Tjaa, der neue Monitor ist wirklich überwältigend, noch nie etwas Vergleichbares besessen.

Aber kommen wir direkt zu den schlechten (aber zu erwartenden) Neuigkeiten.
Mittlerweile habe ich TW3 zwar durchgespielt, bin aber noch längst nicht fertig mit dem Spiel und würde es auch gerne noch einmal von neu anfangen.
Allerdings ist die Grafikkarte (GTX 980) viel zu unterdimensioniert für Witcher 3. Mit dem aktuellen Monitor habe ich nur ein flüssiges Erlebnis, wenn ich alles auf niedrig stelle, Hairworks aus. So erreiche ich fast immer 60 FPS und kann dazu gut V-Sync anschalten.
Trotzdem gibt es selbst bei diesen mickrigen, wirklich unschönen Einstellungen trotzdem noch Nachladeruckler.

Stelle ich alles (wie gewünscht) auf Höchste, sowie Hairworks auf An, so ruckelt es zwar nicht ganz so sehr wie auf dem vorherigen 4k Monitor, aber doch leider sehr vergleichbar, sind nicht viele FPS, die durch die geringere Auflösung reingeholt werden. Würde ungefähr auf 7-10 FPS schätzen, je nach Wetter. Dazu muss ich auch noch was sagen. Sobald es regnet, wird das Spiel so leistungshungrig, das ist einfach unfassbar.. kann mir kaum vorstellen, dass da selbst 2 GTX Titan X das auf flüssigen 60 FPS auf Anschlag schaffen könnten.

Mein Fazit also: Die aktuelle Hardware ist m.M.n. noch nicht wirklich bereit für aktuell grafisch aufwendige Titel in einer etwas höheren Auflösung als bisher üblich, selbst wenn es noch um einiges weniger als 4k ist (3440x1440). Lege das daran fest, dass selbst die teuerste Grafikkarte alleine hier nicht sehr weit kommt und das ist sehr schade. Hier muss man sich leider entscheiden, ob man entweder flüssig, dafür aber mit deutlich reduzierten Details spielt, (wofür man aber eher einen 1080p Monitor hätte kaufen können) oder in hohen Details, dafür aber mit Rucklern. Oder ob man sich nunmal eine 2. Grafikkarte dazu kauft, da ich allerdings momentan eher zur Single GPU tendiere, werde ich erstmal nichts kaufen, sondern auf AMD abwarten und zur Not eben auch bis 2017, da ich kaum glaube, dass eine 2. 980 alles perfekt laufen lässt.

Mindestens GTX 980 Ti im SLI werden mit Sicherheit für maximales Spielvergnügen benötigt, eher mehr.
Mit nur einer 980 Ti wäre es evtl. noch möglich durch G-Sync einiges rauszureißen, aber wirklich optimal und für längere Zeit ist das wirklich nichts. Ich rede hier vom absoluten Enthusiasmus.

So, das wars dann auch wieder von mir, zum Glück müssen wir uns nur zurücklehnen und abwarten bis bessere Grafikkarten erscheinen :)
 
DmC schrieb:
Die aktuelle Hardware ist m.M.n. noch nicht wirklich bereit für aktuell grafisch aufwendige Titel in einer etwas höheren Auflösung als bisher üblich, selbst wenn es noch um einiges weniger als 4k ist (3440x1440).

Das war bei 1080p genauso. Wer Crysis in 1080p mit hohen Details zocken wollte, brauchte zwingend SLI/CrossFire.
 
Zurück
Oben