Test Nvidia GeForce GTX 960 im Test

daviscotex schrieb:
In Verbindung mit unzeitgemäßen 2GB unattraktiv

Das siehst nicht nur Du so ;)

Jan schrieb:
Noch vor der Markteinführung schießt AMD außergewöhnlich stark gegen die für diese Woche erwartete GeForce GTX 960 von Nvidia. Ein 128 Bit breites Speicherinterface und zwei Gigabyte GDDR5 „klingen nicht nur unattraktiv, sie sind es auch“, erklärt der Hersteller.
 
Ich warte auf all die TI-Varianten hoffentlich haben die mehr V-RAM!
Weil 2 GB sind mir auf die Dauer zu klein, für meinen TVPC wäre die TI-Variante wahrscheinlich perfekt!

Bytecode
 
4nt1h3ld schrieb:
CB wird ja immer die grüne Seite vorgeworfen und da scheint es doch recht passend, dass gerade bei einer nvidia Karte mit schlechtem Speicherinterface alle Tests in höheren Auflösungen als FullHD entfallen....

Das ist eine Einsteigergrafikkarte, halt für Leute mit kleinem Budget. Macht in meinen Augen schon Sinn, die Karte wird wsh. zu 80% in dieser Auflösung laufen...
 
Na dann heißts wohl weiter warten auf die GTX960ti^^

Für 150€ und guter Kühlung ist es eine Überlegung wert, ich spiel sowieso nur ältere Games.
 
Zuletzt bearbeitet:
Somit ist wieder Luft für die bewährte TI Version :)

Watt vs. FPS sind sehr fein.
 
Es macht auch mMn keinen Sinn, eine Karte wie die 960 mit mehr als FHD zu testen - dann das gleiche aber bitte auch mit den Mittelklasse-Radeons. Denn 4k Zocken wird keiner mit der Karte, da bin ich mir relativ sicher. Ausser LoL oder sowas, aber das zählt eigentlich nicht.
 
Hab die Benchmakrs nur kurz überflogen.

Man kann schön erkennen wie proportional sich die Leistung zwischen GTX 750 Ti ; GTX 960 und GTX 970 verhält. Das Zuwachs ist in der Regel identisch...
 
929ca94b0e.jpg


Quelle: Video über GTX 960 von LinusTechTips youtube.com/watch?v=4HBryqtNAGQ @5:10

Sieht nicht schlecht aus, ne? Für diejenigen die jetzt über die 128Bit herfallen.

Klar ist ja nur WoW. Aber man muss sich halt vorstellen, dass grafisch anspruchsvollere Spiele bei unspielbaren FPS landen würden und man somit eh kein 4k spielen kann.

So nebenbei:
Wir brauchen übrigens mal wieder neuere Spiele für CB Benchmarks.. Wann wirds denn erneuert?
 
Zuletzt bearbeitet:
Icipher schrieb:
Das ist eine Einsteigergrafikkarte, halt für Leute mit kleinem Budget. Macht in meinen Augen schon Sinn, die Karte wird wsh. zu 80% in dieser Auflösung laufen...

Eine Einsteigerkarte ist das mit Sicherheit nicht. Einsteigersegment ist eher Richtung Geforce 210 oder GT730. Das hier ist wohl eher das Performance-Segment.
 
Ist ja wirklich ne halbe 970/980. Damit steht fest das es die 970 dieses Jahr bei mir wird.^^
 
So wirklich im griff hat man anscheinend das Spulenfiepen nicht,hochfrequenzes Fiepen das störender ist als die Lüfter geht ja garnicht egal von wem die Karte kommt.
 
4nt1h3ld schrieb:
CB wird ja immer die grüne Seite vorgeworfen und da scheint es doch recht passend, dass gerade bei einer nvidia Karte mit schlechtem Speicherinterface alle Tests in höheren Auflösungen als FullHD entfallen....

Ach... ;)
War auch mein erster Gedanke.
Aus dem R9 285 Review:
Unter 2.560 × 1.600 scheinen die neuen Kompressionsalgorithmen nicht mehr ganz so effektiv zu arbeiten, die fehlend Speicherbandbreite von 256 zu 384 Bit macht sich bemerkbar. In dem Szenario arbeitet die Radeon R9 285 sogar fünf Prozent langsamer als die Radeon R9 280.
Und nun testen sie in FullHD die GTX 960 um festzustellen:
Darauf lässt sich der Schluss ziehen, dass trotz der deutlich niedrigeren Speicherbandbreite die GeForce GTX 960 nicht mehr durch die Speicherbandbreite eingebremst wird als das Vorgängermodell. Offenbar benötigt die Maxwell-Architektur schlicht und ergreifend weniger Bandbreite als das Kepler-Design.

Und welcher Schluß lässt sich daraus über diesen Test ziehen?
 
Bin heute erst aus dem 4-wöchigen Urlaub zurück und nun muss ich diesen Test hier lesen...
Hab nicht so mitbekommen, was da in den letzten Wochen spekuliert wurde, daher bin ich jetzt echt enttäuscht. Meine HD7870 ist verreckt und ich dachte die 960er könnte die ablösen, wenn sie mind. 3GB VRAM und etwas mehr Leistung als eine R9280X für ~250€ hat, aber das war wohl ein Schuss in den Ofen. Meiner Meinung total dämlich positioniert, das sollte eine GTX 950 sein, auch weil 2 GB langfristig einfach nicht mehr zeitgemäß sind :(
 
Dan Kirpan schrieb:
Na ja nicht so spannend.

Langsamer als eine Radeon R9 285 und verbraucht dabei 30 Watt weniger. Das ist in Ordnung aber nicht Welt bewegend.

Wie genau kann die Graffikarte 4 x 5K Displays ansprechen? Displayport 1.3 hat sie nocht nicht oder? Der Standard soll doch frühstens Ende 2015/Anfang 2016 auf den Markt kommen.

30 WATT? 100 WATT! Beim Spielen von Crysis 3!

Minute 5:11

https://www.youtube.com/watch?v=4HBryqtNAGQ
 
Gute Karte. Der Preis startet bei Geizhals bei 189€ (noch nicht verfügbar). In 2 Wochen dürfte es sich bei 160~170 eingependelt haben.

Ich verstehe die Kritik am V/Ram noch immer nicht. Eine R9-290 hat doch 4GB und ein 512 Bit Interface. Spielbare Frameraten bekommt man bei beiden doch trotzdem nicht.

Metro: Last Light - 1.920 × 1.080 - 4xSSAA/16×AF
R9-290 => 23,3 fps
GTX 960 => 15,7 fps

Watch Dogs - 1.920 × 1.080 - 4×SSAA/16×AF
R9-290 => 24,5 fps
GTX 960 => 13,4 fps

4k Auflösung schaffen doch nur Karten oberhalb 400€? Wenn überhaupt? *kopfkratz*
 
kristwi schrieb:
30 WATT? 100 WATT! Beim Spielen von Crysis 3!

Alle Karten bei LinusTechTips werden bis zum verrecken übertaktet. Das sollte man vielleicht auch noch erwähnen.
Und Maxwell ist darauf nunmal ziemlich stark optimiert worden.
Wie schon gesagt: Was anderes hätte man bei next gen nicht erwarten können, sonst wärs ne Enttäuschung (nach immerhin 3-4 Jahren alte Architekturen)...

@supergulu

Musst du halt auf die "echte" High-End Release warten nachdem Nvidia die Kunden mit den Krüppelkarten die Cashcow fertig gemelkt hat.
Gott sei dank wird die GTX 980 eher wenig gekauft.
 
Zuletzt bearbeitet:
Chris_S04 schrieb:
Die Leistung haut einen im Vergleich zur R9 280(X) oder GTX 760 echt nicht aus den Socken. Verbrauch, Lautstärke und Temperatur sind aber nicht schlecht. Nun müsste man das über den Preis regeln. Die 200€ UVP fände ich persönlich zu hoch, da lohnt sich dann eine R) 280(X) eher, denn die Custom-Modelle bekommt man auch leise und den Verbrauch "rein zu bekommen" dauert unrealistisch lange. So ab 150 oder 160€ dürfte sie evtl interessant werden.

Mhm ich betreibe z.B. immer zwei Monitore. Da braucht z.B. die Palit 960er 50W weniger als die 280 im Desktopbetrieb. Bei Spielen sogar 80W weniger. Was ist eigentlich bei Spielen und zwei Montitore? Addieren sich dann die 80W und die 50W Mehr-Leistungsaufnahmen?

Auf jeden Fall: Falls man nun 365 Tage im Jahr den PC ca. 3h am Tag an hat, dann ergeben sich doch 365 * 3h * 50W = 54,75 KWH pro Jahr. Daraus ergeben sich 13€ Ersparnis pro Jahr (bei 25Cent/KWH). Und das ist noch konservativ gerechnet, weil nur Desktopbetrieb betrachtet wurde.

Es ist halt schade, dass AMD den Multi-Monitorbetrieb so gar nicht auf die Reihe bekommt.

Mein Fazit:
--> Für Multi-Monitor kann man halt fast nur zu Nvidia greifen.... Einzig die 2GB sind wirklich schwach. Wieso nicht 3GB und alles wäre gut?

PS: Ich lass mich gerne berichtigen, falls ich mich beim Multi-Monitorthema irre
 
Würde Nvidia nicht den Etikettenschwindel betreiben, den sie derzeit Abziehen und das Ding als 950(ti) vertreiben und im Preissegment von 100 bis 150 Euro platzieren, würde ich sagen, dass die Karte mindestens eine richtig dicke dicke Kaufempfehlung verdient hätte.
So ist es nur der Fail auf Ansage, nachdem die Mittelklasse GPUs bei 970 und 980 verbaut wurden und es nun an der Zeit war die 960er zu präsentieren.

Ich bin schon sehr auf den nächsten Fail auf Ansage, der 960ti, gespannt.
Die darf schon mal fleißig den Spagat üben, um sich in Sachen Leistung, Preis und Energieverbrauch unter Last zwischen die 960 und 970 zu platzieren.
Das wird ein richtig enges Höschen :evillol:
 
tic-tac-toe-x-o schrieb:
Alle Karten bei LinusTechTips werden bis zum verrecken übertaktet. Das sollte man vielleicht auch noch erwähnen.

Ja und aber die R9 285 ebenfalls zeigt nur wie effektiv der Chip ist!
110 Watt unterschied bekommen die nie wieder zurück höchstens 50Watt in der nächsten Generation, wenn überhaupt! Also für kleine PCs ist AMD gestorben.. Notebooks ja sowieso!
 
Zuletzt bearbeitet:
tic-tac-toe-x-o schrieb:
929ca94b0e.jpg


Quelle: Video über GTX 960 von LinusTechTips youtube.com/watch?v=4HBryqtNAGQ @5:10

Sieht nicht schlecht aus, ne? Für diejenigen die jetzt über die 128Bit herfallen.

Klar ist ja nur WoW. Aber man muss sich halt vorstellen, dass grafisch anspruchsvollere Spiele bei unspielbaren FPS landen würden und man somit eh kein 4k spielen kann.

Hier würde ich ganz klar auf einen Beschriftungsfehler tippen. Wechsel mal die Beschriftung der R270 mit der R285, denn ich kenne keinen Bench wo die erstere schneller wäre und dann noch in 4K.
 
Zurück
Oben