Qual der Wahl GTX 960 oder 970?

Kasmopaya schrieb:
Interessante Infos. Die Fury Karten gehen aber ein wenig anders zu werke, zumindest in einigen Spielen, die Refreshen den Vram viel öfter als normal, was zu suboptimalen Frametimes führt.

Und das hat was genau mit der Kaufberatung zu tun? Die Fury ist eindeutig weit übern Budget .............


200€ Klasse => 380
300€ Klasse =>Sapphire r9 390 Nitro / PCS+
Ergänzung ()

RobinSword schrieb:
Mit der GTX 970 hättest du auf jeden Fall ein Stück mehr Zukunftssicherheit.

in Bezug zu welcher GPU?
Ergänzung ()

edenjung schrieb:
@TE
Nimm die 390 und gut ist. Am besten eine von sapphire. Ansonsten ein ref Design (gibt's das da eigentlich?)

Nein ein ref Design gibt es bei der 390 nicht. Das gab es bei der 290 und war anscheinend so schlecht, dass man es bei der 390 gleich gestrichen hat ^^
 
max_1234 schrieb:
Das sind 60W Unterschied, keine 200 wie hier gern dargestellt wird.

Das liegt halt daran, dass NVidia einfach keine TDP rausgibt. Bei denen nennt sich das "MGCP" (Maximum Graphics Card Power) und ist nicht 1:1 mit einer AMD TDP Angabe zu vergleichen. Für mich ist das eine fiese Methode um AMD, die echte Zahlen angeben schlechter da stehen zu lassen.
 
Und das hat was genau mit der Kaufberatung zu tun? Die Fury ist eindeutig weit übern Budget .............
Ich kann euch ja nicht unwissend sterben lassen. Irgend wer muss ja hier die Zeugen Jehovas spielen in Sachen Vram. :D

Ich kann nur die GTX 960 4GB empfehlen, die GTX 970 ist viel zu teuer für die 3,5GB Vram. Hab die 970 seit Verkaufsstart noch nie empfohlen, wer sie trotzdem kauft ist selber Schuld.

390 8GB oder 290 8GB sind auch gute Karten. Aber so nah an einer neuen Generation in 14/16nm. Mäh...
 
Chillaholic schrieb:
Das liegt halt daran, dass NVidia einfach keine TDP rausgibt. Bei denen nennt sich das "MGCP" (Maximum Graphics Card Power) und ist nicht 1:1 mit einer AMD TDP Angabe zu vergleichen. Für mich ist das eine fiese Methode um AMD, die echte Zahlen angeben schlechter da stehen zu lassen.
Wirf halt einen Blick auf die Tests, 3D-Center hat das zusammengefasst: http://www.3dcenter.org/artikel/stromverbrauch-aktueller-und-vergangener-grafikkarten#r300. AMD ist halt einfach nicht so effizient. Wie wichtig das einem ist, muss man selber wissen.
 
@Chillaholic: Die "TDP"-Angaben bei Nvidia (z.B. bei der 960) sind ja tatsächlich höher, als der Verbrauch am Ende. 200W sind es wahrlich bei keiner Karte. Aber irgendwas zwischen 60-100W ist trotzdem nicht wenig ;)

Und ich finde gerade über 'ne durchschnittliche Nutzungsdauer von 2-3 Jahren (die wenigsten kaufen jährlich eine neue Karte), kann sich das schon rechnen, die Karte zu nehmen, die weniger Strom zieht. Und wenn es nur 10-15 Euro im Jahr sind, sind das nach 3 Jahren schnell mal 50 Euro die man auf der Stromrechnung weniger berappt ;)

Bin aber gespannt, wie AMD mit Polaris nachlegt ;)
 
kachiri schrieb:
Und ich finde gerade über 'ne durchschnittliche Nutzungsdauer von 2-3 Jahren (die wenigsten kaufen jährlich eine neue Karte), kann sich das schon rechnen, die Karte zu nehmen, die weniger Strom zieht. Und wenn es nur 10-15 Euro im Jahr sind, sind das nach 3 Jahren schnell mal 50 Euro die man auf der Stromrechnung weniger berappt ;)

Bin aber gespannt, wie AMD mit Polaris nachlegt ;)

Hab ich schon 100x vorgerechnet, der Unterschied im Kaufpreis von meiner R9 290 zu ner GTX970 hätte sich erst nach 3-4 Jahren amortisiert. Und da hatte ich hoch angesetzt, ich komme tatsächlich noch viel weniger zum Spielen als gedacht.

Außerdem muss man noch einrechnen, was man spielt. Wenn ich nun Wasteland 2 / Divinity Original Sin und Co. mit 60fps Framelimiter spiele, braucht die Karte wohl auch nicht mehr Strom als ne GTX 970. Da verschiebt sich das Verhältnis noch mehr zu gunsten der günstigeren Karte. Witcher 3 war ein Titel, in dem die GPU mal wirklich ne hohe Last hatte. Das hab ich bisher 125h gespielt. Aber dann spiele ich auch gleichzeitig viel rundenbasierte RPGs, die da eher anspruchslos sind und dem System wenig abverlangen.

Also wenn ich bei Hersteller A für Leistung X 300€ zahle und dauerhaft max. 100W Mehrverbrauch unter Last als Hersteller B für 350€, dann wähle ich in jedem Fall Hersteller A. Die 50€ holt man bei nem max. Unterschied von 100W in drei Jahren gerade mal rein, wenn die Karten immer Vollgas geben müssen.
 
Das ist wie geschrieben alles subjektiv. Die 390er muss über doppelt so viel flüchtigen VRAM wie die GTX970 ansteuern - und das mit einem 512bit SI, statt 224 bei der GTX970. Dazu kommt, dass die 390er schneller ist ;)

Im Endeffekt ist diese so oft angesprochene "Ineffizienz" nichts anderes wie Mehrleistung.

Die einzigen richtigen effizienten Karten die ich kenne sind die 980 und die Fury (non-x).

mfg,
Max
 
hrafnagaldr schrieb:
Außerdem muss man noch einrechnen, was man spielt. Wenn ich nun Wasteland 2 / Divinity Original Sin und Co. mit 60fps Framelimiter spiele, braucht die Karte wohl auch nicht mehr Strom als ne GTX 970.


Wie ich letztens festgestellt habe braucht die AMD Karte dann sogar wesentlich weniger Strom, AMD Karten senken den Takt wenn die Auslastung sinkt, Nvidia Karten arbeiten immer mit max. Takt egal wie hoch die Auslastung ist.
 
EXTREM schrieb:
...Nvidia Karten arbeiten immer mit max. Takt egal wie hoch die Auslastung ist.
Nö, machen sie nicht.

Nur der Takt ist ja auch kein Kriterium oder hat du auch mit einem Leistungsmesser nachgemessen? Ist halt aber auch nicht so genau, die Leistungsaufnahme schwankt so schnell, da kommt ein einfaches Messgerät überhaupt nicht mit.
 
Komisch Zotac der ja als Nvidia Fan bekannt ist behauptet das aber.

Ja ich habe gemessen und das durch senken des Takt Strom gespart wird ist ja wohl nichts neues, nicht umsonst takten auch CPUs runter wenn die Last sinkt.
 
Diesen Bug gibt es mit AMD Karten aber auch, mit 3 Monitoren ist bei mir der Speicher immer voll getaktet ;)
Man mag sich gar nicht vorstellen wie komplex die Treiberimplementierungen für Multi-Monitor Setups sind.

mfg,
Max
 
Es geht hier nicht um den Multi-Monitor betrieb da haben ja alle Karten so Ihre Probleme.

Es ist nun mal so das Nvidia Karten auch wenn die Karte beim spielen nicht voll ausgelastet ist immer den max Takt hält, ich rede hier nicht vom Idle sondern ausdrücklich Ingame, zumindest kann man das so in verschiedenen Videos erkennen.

AMD Karten senken den Takt sobald die Auslastung zb durch Vsync oder CPU Limit reduziert ist, was wiederum Strom spart und die Temperatur senkt.
 
Interessant, da muss ich doch demnächst mal mehr im Internet danach forschen. Das würde die ganze NV Fanboy Effizienzleier endgültig ad absurdum führen.

Wobei das mit dem Triple Monitor unter AMD Karten auch ein guter Hinweis ist - sollte ich bei mir mal gegen prüfen heute Abend ^^'
 
rille schrieb:
Du hast also gar keine Nvidia-Karte?

Auch bei gleichem Takt kann die Leistungsaufnahme sehr verschieden sein ;)

Nein aber wir haben darüber in einem anderen Thread eine große Diskussion geführt wo auch Nvidia Besitzer teilgenommen haben;)
Und ja klar senkt sich der Verbrauch auch wenn die Last sinkt der Takt aber hoch bleibt, allerdings bei weitem nicht so stark als wenn der Takt sinkt.

Durch das senken des Takt kann man auch die Spannung senken was nun mal die beste Möglichkeit ist Energie zu sparen, da nicht nur der Kern weniger Energie verbraucht sondern auch die Spannungswandler und Spulen weniger Strom in Wärme umwandeln.

Nicht umsonst senken GPUs und CPUs im Idel den Takt und die Spannung auf ein Minimum.

Allerdings hat das ganze auch einen Nachteil, wenn es in Spielen sehr schnell zu einem großen Anstieg der Auslastung kommt kann es einen kleinen Ruckler geben da die Karte ein paar ms braucht um wieder auf Maximum zu takten. So lange aber die Auslastung nicht abrupt von zb 20 auf 100% steigt läuft das System gut.
 
Zuletzt bearbeitet:
Ich habe eine Nvidia-Karte und die senkt den Takt, wenn nicht so viel Leistung benötigt wird. Aber nochmal: Der Takt sagt recht wenig über die tatsächliche Leistungsaufnahme aus. Übliche Messgeräte auch nicht, die sind einfach zu langsam um genau messen zu können.

Deshalb halte ich solche pauschalen Behauptungen wie auch hier auch wieder zu lesen, einfach für wenig sinnvoll. Es schreibt doch eh jeder, was ihm besser in den Kram oder zu seiner Hardware passt...

Die diversen Tests berücksichtigen halt auch immer nur sehr wenige Szenarien, die verwendeten Messgeräte sind auch sehr unterschiedlich. CB verwendet z.B. nur ein sehr billiges Gerät, ht4u misst dann wenigstens nur die Grafikkarte und Toms Hardware oder c't betreiben schon einen recht großen Aufwand. Gewisse Tendenzen sind aber natürlich auch mit einfachen Geräten erkennbar.
 
EXTREM schrieb:
Wie ich letztens festgestellt habe braucht die AMD Karte dann sogar wesentlich weniger Strom, AMD Karten senken den Takt wenn die Auslastung sinkt, Nvidia Karten arbeiten immer mit max. Takt egal wie hoch die Auslastung ist.
Und an dieser Aussage hast du keinen Moment gezweifelt? Naja, wie auch immer, sie ist natürlich falsch. Das kann man natürlich selber nachsehen, wenn man eine solche Karte im System hat oder man schaut sich einfach gute Testberichte an wie die auf thg.
 
rille schrieb:
Ich habe eine Nvidia-Karte und die senkt den Takt, wenn nicht so viel Leistung benötigt wird.

Das würde ich dann doch gerne mal in einem Video sehen, weil Zotac behauptet genau das gegenteil und der würde als Nvidia Fan ja kaum Nvidia Karten schlechter machen als diese sind.
Ach und Strommessgeräte können sehr wohl und sehr genau den aktuellen Verbrauch messen, da der Verbrauch nach dem Netzteil doch sehr wenig schwankt da genug Elkos das ganze ausgleichen.
Also mal bitte ein Spiel spielen, Vsync an und ein Video davon machen.

So schaut das ganze bei AMD aus.

https://www.youtube.com/watch?v=uQ7xj6jgLgg

Oben Links sieht man dann

GPU: Temp, Auslastung, Lüfter % , Takt MHz
 
Zurück
Oben