GTX 970 zurück, nun welche Grafikkarte.. GTX 980, R9 290x, 2x R9 290 Crossfire ?

Für Watch Dogs ist dein gesamtes System zu langsam, besonders mit einer 8800 GTX.

SLI oder CrossFire bringt dir absolut nichts, da muss du dir auch einen ordentlichen CPU holen.

Wenn es keine GTX 970 sein soll, was ich durch aus verstehen kann. Dann hole dir eine 290X.

Bei deinen System würde auch erstmal eine 290 reichen und später alles mal richtig aufzustocken.

Wenn du dir eine GTX 980 holen solltest, dann würde sich Nvidia über dich kaputt lachen, ich würde dann eher den "richtigen" Maxwell abwarten und was AMD mit der 300-Serie raus bringt.

Bei deiner Auflösung wirst du nicht mal das Limit der GTX 970 mit 3,5 GB VRAM erreichen. Vorher geht alles andere die Puste aus. ^^
 
wie wäre es mit Variante VII?

VII: gebrauchte 290 tri-x für 150-180 holen und schauen was in Q2 raus kommt ;)
 
Noch eine Variante:
Auf die angebliche GTX960ti / GTX965 mit 3GB Grafikspeicher und 192Bit SI warten.
Oder brauchst du uuunbedingt >= 4GB?
 
Nvidia PR-Fail hin oder her. Am Ende vom Monat muss auch jemand die Stromrechnung bezahlen.
Und bei der gespielten Auflösung ist die 970 nunmal die beste Wahl.

Auch ich finds schade das Nvidia nicht offen kommuniziert hat das nur 3,5 von 4Gb Speicher mit voller Geschwindigkeit angebunden sind. Trotzdem behalte ich meine beiden 970er. Ich bin mit der Leistung einfach zufrieden.

Bringt ihr euro Autos auch zum Händler zurück wenn im Sommer bei 35° Außentemperatur nicht die volle angegebene Motorleistung erbracht wird?
 
Kurz zum Thema: TE, holt DIR doch einen Gummihammer. Bist Du so einer der als erster immer jeden Schwachsinn mitmacht?

Nvidia hat mist gebaut ( habe selber eine 970 ) aber die jetzt zurück geben lohnt sich nicht. Ich würde sagen Nvidia soll UNS doch mal ein Game der WAHL schenken und gut is.
 
KwickskoOp schrieb:
Seit wann braucht man für Skyrim mehr als 4GB Grafikspeicher? Als ich Skyrim gemoddet auf meiner 780ti mit nur 3GB VRAM durchgespielt habe ist mir das gar nicht aufgefallen. Komisch ...

wohl nicht die richtigen Mods gehabt ;)
Ergänzung ()

jo89 schrieb:
Nvidia PR-Fail hin oder her. Am Ende vom Monat muss auch jemand die Stromrechnung bezahlen.
Und bei der gespielten Auflösung ist die 970 nunmal die beste Wahl.

Dann sollte er aber sich nur am Ref Design orientieren - bei OC verliert die 970 ganz schnell den Energieffizienzvorteil - und hats du mal Durchgerechnet wie lang du allein die Karte dauerhaft unter Volllast halten musst um die Differenz von der 290 tri-x zur 970 3,5gb Karte reinzuholen?
Ergänzung ()

[Mephisto] schrieb:
Kurz zum Thema: TE, holt DIR doch einen Gummihammer. Bist Du so einer der als erster immer jeden Schwachsinn mitmacht?
Bist du einer von denen, der sowas immer herunterspielt und weswegen solcher scheiß sich immer mehr häuft?
 
Zuletzt bearbeitet:
Bei dieser kleinen Auflösung braucht es nicht viel Leistung. Da ist es auch kein Wunder, dass prozessorlastige Spiele wie CS noch mit einer 8800gtx laufen.

Derzeit kannst du eigentlich nur zur R290x 8GB greifen oder auf die R9 380x warten. Laut deiner Aussage reichen dir 3,5 GB nicht, also warum dann eine Karte mit 4GB kaufen.
 
Hol dir eine R9 290 und gut ist - Crossfire wird mit deiner Cpu sowieso nichts (Cpu-limit) und außerdem ist dein Netzteil dafür eindeutig zu schwach.

Zum Thema 1680x1050: Der Vram-Verbrauch nimmt (je nach Engine) mit höherer Auflösung nicht sonderlich zu - ist also vollkommen egal, welche Auflösung sein Moni hat.
 
@Zuckerwatte:
Dann versuch erstmal die 290 auf das Leistungsniveau der 970 zu bekommen und dann schau mal was die dann an Strom frisst. Mal so als Gegenbeispiel.

@topic:

Wenn mein dämliches UPlay nicht grade mit Watch Dogs rumspacken würde, hätte ich das schonmal nachvollziehen können
 
Bist du auch von solchen Benchmarkzusammenfassungen mit uralt Treibern geblendet? Die meisten r290 custom sind auf 290x Niveau..und da spreche ich nichtmal von 290x OC

zum Thema Stromverbrauch:

"Zitat von beren2707 Beitrag anzeigen
Ich liebe es, wenn Leute sich zur Effizienz sowie der Leistungsaufnahme einer Karte äußern und keinen blassen Schimmer haben, wovon sie da eigentlich reden.

Ich gebe jetzt mal bekannte Modelle der von dir als zu hoch im "Verbrauch" und der Lautstärke angegebenen Karten aus dem PCGH-Index wieder (Last = 3D-Last):
MSI GTX 780 Ti Gaming: 269W. Idle: 0,4 Sone. Last: 1,7 Sone.
Sapphire R9 290X Tri-X OC: 269W. Idle: 0,7 Sone. Last: 3,0 Sone.
Geforce Titan: 229W. Idle: 0,4 Sone. Last: 3,2 Sone.

Wie schauts bei deiner GTX 970 Gaming G1 aus?
Gigabyte GTX 970 Gaming G1: 220W. Idle: 0,9 Sone. Last: 2,6 Sone.

Wahnsinn, das sind ja Welten, die G1 Gaming liegt ja wirklich stets deutlich in Front! :ugly: /Ironie
Ums den effizienzvernarrten Usern einmal vorzurechnen:
Wenn man die G1 mit der genannten 780 Ti/290X vergleicht und eine tägliche vierstündige Last mit der angegebenen Leistungsaufnahme sieben Tage die Woche rechnet (Rechnung mit 0,28€ pro kWh), dann kommt folgendes Ergebnis dabei heraus:
Anhang 802176
Selbst bei einer solch exzessiven Nutzung würde man also ~2 Jahre brauchen, um den aktuellen Preisunterschied zw. 970 G1 Gaming und 290X reinzuholen.
Ungeachtet dessen sind die anderen Vorteile natürlich bei einigen Custom-Modellen der 970 vorhanden (die 970 ist i.d.R leiser und leichter zu kühlen). Ich wollte damit nur veranschaulichen, dass besonders manche Custom-Modelle der 970 längst nicht so leise und effizient sind, wie manche User das gerne hätten. Alternativlos ist die 970 daher beileibe nicht, ein Umtausch würde daher (je nach Modell) mitunter wenig an Lautstärke und Effizienz ändern.
"

Ich weiß die 970 ist dort nicht erwähnt. gehen wir also von 180 W Vollast beim normalen custom Modell aus....WOW das is soviel und das bei den ständig steigenden Energierpreisen....halt moment die fallen ja gerade :D

ernsthaft: Die GTX 970 ist eine gute Karte, auch wenn Nvidia mit dem Marketing bockmist gebaut hat. Fakt ist aber auch, dass die 970 nicht wirklich schneller als eine 290x (ref) arbeitet. Der Strombedarf bei 4GB war das Argument aber sind wohl eher nur 3,5 GB zu gebrauchen, da die letzten 500 etwa so schnell angebunden sind wie mein Arbeitsspeicher :freak: - und man damit 500MB eher EOL erreicht.
 
Zuletzt bearbeitet:
Für alle, die schon mal wieder wegen dem Stromverbrauch rumheulen:
Rechnet euch die Mehrkosten doch einfach mal aus. Da muss man schon sehr viel und sehr lange Games zocken, die die Graka voll auslasten, um überhaupt 10€ mehr im Jahr zu zahlen...
 
[Mephisto] schrieb:
Kurz zum Thema: TE, holt DIR doch einen Gummihammer. Bist Du so einer der als erster immer jeden Schwachsinn mitmacht?

Nvidia hat mist gebaut ( habe selber eine 970 ) aber die jetzt zurück geben lohnt sich nicht. Ich würde sagen Nvidia soll UNS doch mal ein Game der WAHL schenken und gut is.

Mir geht´s da mehr ums Prinzip ... Ich wollte ne 4GB Karte und bekomm nur 3,5 ? ..
Hätt ich nur ne 3GB Karte gewollt, hätt ich mir eine geholt ^^ .. und warum nicht wenn ich noch Wiederrufsrecht hab ??


Zum thema Skyrim, da bezieh ich mich eig. nur auf Threads wo ich das aufgeschnappt hab...

Wenn mein CPU eh zu langsam für Crossfire ist, bringt es ja dann schonmal garnichts.. ^^

Zwirbelkatz schrieb:
Bei dieser kleinen Auflösung braucht es nicht viel Leistung. Da ist es auch kein Wunder, dass prozessorlastige Spiele wie CS noch mit einer 8800gtx laufen.

Derzeit kannst du eigentlich nur zur R290x 8GB greifen oder auf die R9 380x warten. Laut deiner Aussage reichen dir 3,5 GB nicht, also warum dann eine Karte mit 4GB kaufen.

Ich mein, ich werd jz gleich goggeln .. aber weis man denn schon wann die rauskommen soll ?

Da überwiegend geraten wird mir ne r9 290(x) zu holen Gucke mir jz gleich auch mal Benchmarks der 290x 8 GB an ... ...
im endefekkt muss ich ja "nur" über die Leistung der gtx 970 kommen ^^
(dachte ahlt, wenn 600€ ausgeben dann sollst fett aber evt kein nvidia sein ;) .. aber bringt ja nix mit zu langsamer cpu und zu niedriger auflösung für crossfire x_X ^^)

bzgl. stromverbrauch, in anderen threads schon besprochen worden.. ca 30€ im jahr oder so war das :)
 
Zuckerwatte schrieb:

So schauts aus. Und hört mal Bitte auf, seinen Monitor schlecht zu machen.
Nur weil ihr auf den Marketing Mist "Full HD" reingefallen seid, müsst ihr ihm nich so nen schmarrn erzählen. Wenn ihm die Grösse ausreicht, braucht er auch keinen neuen. Es sei denn er will 144Hz oder ein IPS panel oder G/free-sync oder so.

22" Monitor 1680x1050 = 90 PPI
24" Monitor 1920x1080 = 91,79 PPI

22" Monitor 1920x1080 = 100 PPI

Wie ihr sehen könnt ist der Unterschied zu vernachlässigen. Ich will nich wissen, wie viele von euch von nem 21" 1680x1050 Monitor (94,34PPI) auf nen 24" 1920x1080 Monitor (91,79 PPI) umgestiegen sind, nur weil da "FULL HD" draufstand ;)
Man sollte hald nich auf jeden schei**** reinfallen, den einem die Hersteller erzählen wollen.

Ich würde dir empfehlen: Hol dir ne R9 290 und freu dich, dass du 100 Euro gespart hast. Denn wenn die Leistung der 290 nicht mehr reicht, würde auch die 970 Probleme haben, wobei die evtl. schon früher Probleme haben wird als die 290, wenn das Game 3,5GB+ auslastet.
 
Ich empfehle dir auf jeden Fall, nicht zu warten. Technik kauft man, wenn sie gebraucht wird. Sonst sitzt zu im Herbst und wartest darauf, dass nVidia die nächste Gen auf den Markt bringt und so weiter. Letzendlich wartest du, bis du gar keine Grafikkarte mehr brauchst. ;)
Dass du mit den genannten Spielen ins VRAM-Limit fällst, kann ich mir auch nur schwer vorstellen. Den Gegenbeweis muss ich allerdings schuldig bleiben. Von Daher ist die R290X wohl momentan die beste Alternative, die du hast.
Über Stromverbrauch und Effizienz mache ich mir persönlich gar keine Gedanken. Zockt man 10+ Stunden täglich (und ich rede nicht von Solitaire), dann sollte man ein Auge auf die Effizienz des Systems werfen. Die o. g. Rechnung zeigt es ja auch.
Von CrossFire- oder SLI-Systemen halte ich allgemein nicht viel. Die Mehrleistung wird dem Kaufpreis bei infragekommenden Karten meist nicht gerecht (meine persönliche Meinung, basierend auf meiner persönlichen Erfahrung!).
 
Das der TE sich mal in Zukunft einen neuen Monitor holen könnte, vergessen hier die meisten oder?
 
@Zuckerwatte: Bei der RAM-Auslastung musst du vorsichtig sein, es ist nämlich kaum möglich, die wirkliche Auslastung während eines Spieles anzeigen zu lassen. Denn oftmals werden im Speicher viele Daten liegen gelassen, die nicht mehr benötigt werden, die aber erst dann gelöscht werden, wenn eine gewisse Schwelle überschritten ist, oder der RAM vollläuft. Daher kann es durchaus sein, dass eine identische Grafikkarte mit 2GB und 4GB Speicher absolut gleich schnell sind, obwohl bei der einen 2GB RAM ausgelastet sind, bei der anderen 4GB RAM.
Das ist generell immer das große Problem bei solchen Auslastungs-Tests. Theoretisch bräuchte man da immer zwei identische Grafikkarten mit unterschiedlicher RAM-Bestückung, um erkennen zu können, ob der zusätzliche Speicher auch wirklich benutzt wird.
Ergänzung ()

KwickskoOp schrieb:
Seit wann braucht man für Skyrim mehr als 4GB Grafikspeicher? Als ich Skyrim gemoddet auf meiner 780ti mit nur 3GB VRAM durchgespielt habe ist mir das gar nicht aufgefallen. Komisch ...
Komisch... es gibt ja nur tausend verschiedene Mods oder so...
 
Zuletzt bearbeitet:
Zurück
Oben