Test Die GeForce GTX 970 und der limitierte Speicher

Teambash schrieb:
Kann es null nachvollziehen, wie dir das komplett am Allerwertesten vorbei geht, mit solchen Leuten möchte ich auch gern Geschäfte machen.

Ich habe diese Frage bereits zwei mal gestellt und nach wie vor keine Antwort von jemandem erhalten der so denkt. Ich bin wirklich geschockt das man sowas so stehen lässt.
Der Vergleich ist vielleicht übertrieben, aber es gibt immer wieder Ereignisse in der Geschichte der Menschheit die aus solchen Verhaltensweisen entstanden/gefördert worden sind. :(
 
Ich selbst habe eine GTX 970 und habe immer zwei Monitore angeschlossen, was berichtet wird passt ins Bild ich habe bei ältern Spielen mit DSR wie Halflife 2 keine Probleme. Aber als ich Crysis 2 in höheren Einstellung mittels DSR gespielt habe, habe ich auch zwischenzeitlich größere FPS-Einbrüche erlebt. Es wäre für mich auch nicht so tragisch wenn nicht Nvidia auch noch DSR mit der Einführung der 9** GTX Karten angepriesen hätte. Man wird ja verleitet seine Karte in größeren Auflösungen zu nutzen und das wird einem ja auch Mittels DSR als möglich suggeriert. Daher sehe ich hier schon eine mögliche größere Täuschung Seitens Nvidia, die Speicher Beschränkung/Beschneidung nicht ausgewiesen zu haben.
 
frkazid schrieb:
Problem nicht erkannt. Glückwunsch.

das problem ist mir völlig egal, einzig wichtig ist, wie die gpu in der leistung abschneidet und wie die erreicht wird ist völlig egal. wie gesagt, durch die änderung der spez. wird die karte nun auch nicht schlechter und wem die vorher gereicht hat, wird wohl kaum ankommen und sagen: was doch nur 3,5GB VRAM?! dann muss die karte weg..
 
hi-tech schrieb:
Das 2. Video zum Beispiel ist auf CB gestreamt 487 MByte gross, in 1920x1080 und 139 Sekunden lang.
Also muss du ca. 3,5 Mbyte (29631 KBit) pro Sekunde runterladen um es flüssig abspielen zu können.

Ah OK, ich geh an solche Sachen nicht mehr Mathematisch ran und schwimme auch nicht wie die Nerds in der Gigabit Welle. Dauert also noch. CB muss ja die Pixel-DNA an den User weitergeben. Verständlich. Wie wärs mit den RAW Videodaten unkomprimiert? 2 GByte/s schaffen die meisten CB User doch, wenn schon 4k Displays in min 3 facher Ausführung in der Wohnung stehen und 16 Glasfaserleitungen zur T-Com anliegen?

Ich gehöre zu den Otto-Normalos, die werden wohl nur noch SD bedient. Danke.
 
Zuletzt bearbeitet:
mackenzie83 schrieb:
das problem ist mir völlig egal, einzig wichtig ist, wie die gpu in der leistung abschneidet und wie die erreicht wird ist völlig egal. wie gesagt, durch die änderung der spez. wird die karte nun auch nicht schlechter und wem die vorher gereicht hat, wird wohl kaum ankommen und sagen: was doch nur 3,5GB VRAM?! dann muss die karte weg..

don't break the anti nvidia circlejerk ;-) Viele haben hier gar keine Lust mehr auf differenzierte Darstellung, blindes bashen in der Herde schockt einfach mehr. Die 970er Leistungsergebnisse auf 1080p und 1440p sidn nach wie vor top, und diese Ergebnisse waren vor wenigen Monaten Impuls für AMD Grabreden. Ich kenne nicht 1 Person, die sich seit Oktober keine 970 oder 980 gekauft hat.

Keiner von denen wird seine 970er Karte(n) zurückgeben, die zocken alle 1080p und 1440p, und da passt leider nvidias trockene Aussage "works as intended". Das ist frech, aber wo stimmte es nicht? So lange ich bei Triple A Games weiterhin meine 80-140 Frames knalle, differenziere ich zwischen nvidas armseliger Kommunikationsstrategie und dem Produkt an sich.

Aber über Nacht sind fast alle hier Far Cry 4 Spieler, 4K Freaks und heavy gfx modder geworden.
Ich sagte es gestern, wer die 970 wirklich tauscht, um nvidia damit weh zu tun, Respekt. Ich bin dafür vielleicht zu faul, habe die Probleme der Einbrüche nicht beim Zocken und sehe zudem keine Alternative zu meinen 970 SLIs. Die Teile rocken, nach wie vor.
 
..eigentlich muss jeder der so eine Karte besitzt das Teil zurück schicken. Wie hier bereits erläutert wurde, hat man sogar das Recht dazu. ..und zwar nicht weil die Karte in bestimmten Situationen langsamer ist und auch primär nicht weil das Kundentäuschung ist, sondern weil die Hersteller das sonst wieder tun werden - früher oder später.
"Kundentäuschung hat funktioniert, ordentlich Karten verkauft, nen bissl Blabla in Foren aber Gesamtschaden deutlich geringer als die Einnahmen aus dieser Karte - das machen wir mal wieder, wenn etwas Gras über die Sache gewachsen ist".

Vollkommen egal ob nvidia oder wer auch immer - solchen Machenschaften muss man aus Prinzip einen Riegel vorschieben weil sie sonst irgendwann zum System werden. ...und vielleicht geht es das nächste Mal nicht nur um weniger Performance in einigen "Nischenanwendungen".
 
Laphonso (warum Du immer das Gleiche - in mehreren Threads - wiederholst... mir schleierhaft, Deine Meinung duerfte nun auch der letzte verstanden haben - es sei Dir natuerlich gegoennt ;) ) & mackenzie83

Wie lange sollte man so eine GraKa eigentlich nutzen? Wie lange plant ihr mit einer neuen 350+ EUR Gaming GraKa zu werkeln? Besonders langfristig klingt das bei euch beiden jedenfalls nicht. Kann man sich leider wohl nur wuenschen, dass sich in naher Zukunft viele Spiele finden, welche ganz klar >3,5 GB benoetigen. Es muss wohl bei manch einem doch erst weh tun, bevor man sich selber fragt "Hm, naja, war vielleicht doch nicht so klug das damals einfach so abzutun?".
Ist ein bissl wie Denken von 12 Uhr bis Mittag :)
 
Danke für den Test @CB.

Die Analyse ist schon mal der richtige Schritt.

Jetzt fehlt nur noch ein Kommentar, um die weiterhin empfehlenswerte GTX 970, den üblen Machenschaften von nVidia gegenüber zu stellen.

Ich bringe nochmal den Vergleich ...
Als Hoeneß Betrug mit der Steuersache aufflog, gab es einen Riesenskandal ... und nur wenige treue Bayernfans, verteidigen Ihn bis heute. Der Rest, steht dem Mann nunmehr kritisch gegenüber und schätzt zwar die Arbeit für den FCB, trotzdem musste er für seine Steuerhinterziehung bestraft werden.

Exakt so, ist es mit nVidia aktuell...
Die GTX 970 bleibt eine gute Karte, .. jedoch sollte man nVidia einen herben Denkzettel verpassen.
Und auch hier gilt, ... nur eingefleischte "Fans" schützen nVidia noch.

Ein Fehler mMn.
 
guckmalrein schrieb:
..eigentlich muss jeder der so eine Karte besitzt das Teil zurück schicken. Wie hier bereits erläutert wurde, hat man sogar das Recht dazu. ..und zwar nicht weil die Karte in bestimmten Situationen langsamer ist und auch primär nicht weil das Kundentäuschung ist, sondern weil die Hersteller das sonst wieder tun werden - früher oder später.
"Kundentäuschung hat funktioniert, ordentlich Karten verkauft, nen bissl Blabla in Foren aber Gesamtschaden deutlich geringer als die Einnahmen aus dieser Karte - das machen wir mal wieder, wenn etwas Gras über die Sache gewachsen ist".

Vollkommen egal ob nvidia oder wer auch immer - solchen Machenschaften muss man aus Prinzip einen Riegel vorschieben weil sie sonst irgendwann zum System werden. ...und vielleicht geht es das nächste Mal nicht nur um weniger Performance in einigen "Nischenanwendungen".

Jetzt mal pragmatisch, was baue ich mir dann ein? Jetzt und heute? Ich warte dann wochenlang auf die AMD 3xx Modelle? Ich "belohne" nvidia mit dem kauf der teuren 980er?
Das wird in diesen ganzen Diskussionen vergessen. Für mich persönlich ist der sidestep zu den 290ern crossfire keine Alternative, ich habe bereits eine Heizung und will mein Netzteil nicht vergrößern und erst recht nicht auf Performance verzichten.
Um "nvidia" einen reinzuwürgen muss ich also
1.)verzichten bzw. warten
2.) mich verschlechtern
3.) mehr Geld ausgeben bei genau der Firma, die diesen Mist verzapft hat.

Toll.
Und genau da beginnt die subjektive Prüfung: Laufen meine 970er "so" wie ich sie "brauche" oder nicht?
Falls das ein nein ist und mich blockiert beim Zocken, dann prüfe ich Variante 1-3.
Hier in den Foren scheint es ja viele davon zu geben, ich persönlich kenne nur 2 Leute (von über 2 Dutzend aus meinen Zockergruppen) mit 970ern, die grübeln, wie sie vorgehen. Der Rest hat keine Einschränkungen und wird auch keine bekommen, von crappy ports wie Far Cry 4 mal abgesehen. Das ist mies programmiert und kein 970er Problem, sowas mujss auf 1080p und 1440p völlig souverän laufen.
 
Volle 4GB anstatt 3,5GB werden wohl 2 Jahre an mehr flüssig fps sorgen. Also fleissig von AMD den wertesten bedienen lassen. Als Vertreter mit Kravatte haben se ja schon geklingelt. Holt die Vaseline. Das jetzt alle in 4k mit 8xAA Spielen ist ja nix neues. Bei solchen Themen hatten sowieso alle erst gestern alles neu gekauft und wundern sich nun. Eine GTX670 2GB stottert heute ja nur, wo die 4GB Variante die Hütte noch immer rockt.
 
Zuletzt bearbeitet:
guckmalrein schrieb:
Vollkommen egal ob nvidia oder wer auch immer - solchen Machenschaften muss man aus Prinzip einen Riegel vorschieben weil sie sonst irgendwann zum System werden. ...und vielleicht geht es das nächste Mal nicht nur um weniger Performance in einigen "Nischenanwendungen".

Sehe ich genauso. Wer allerdings (aus welchen Gründen auch immer) das Teil nicht zurück geben möchte, naja der muss auch nicht. Man kann ja keinen dazu zwingen.

MfG tb
 
finde es zwar absolut nicht OK von Nvidia, aber ich bin mit meiner GTX 970 mit Accelero S1+ top zufrieden, habe bei meinen Games eh keinen so großen Speicherbedarf! wenn ich FC4 und Crysis3 versuche den Speicher voll zu bekommen, dann laufen die Games "dank" der übertriebenen Settings (AA+DS) als "Diashow" bzw. Ruckelorgie ab :rolleyes: :D hab da lieber Settings, wo das jeweilige Game am oder nahe dem Vsync (60) läuft ;)
 
Lyle schrieb:
Laphonso (warum Du immer das Gleiche - in mehreren Threads - wiederholst... mir schleierhaft, Deine Meinung duerfte nun auch der letzte verstanden haben - es sei Dir natuerlich gegoennt ;) ) & mackenzie83

Wie lange sollte man so eine GraKa eigentlich nutzen? Wie lange plant ihr mit einer neuen 350+ EUR Gaming GraKa zu werkeln? Besonders langfristig klingt das bei euch beiden jedenfalls nicht. Kann man sich leider wohl nur wuenschen, dass sich in naher Zukunft viele Spiele finden, welche ganz klar >3,5 GB benoetigen. Es muss wohl bei manch einem doch erst weh tun, bevor man sich selber fragt "Hm, naja, war vielleicht doch nicht so klug das damals einfach so abzutun?".
Ist ein bissl wie Denken von 12 Uhr bis Mittag :)

Ich habe mein System vor 8 Wochen für das Spieljahr 2015 und 2016 und konkret GTA V gekauft.
Ende 2016 hatte ich geplant, beide 970er rauszuwerden gegen die dann (über)nächste Generation. Dann entscheide ich mich nach Performance. Ich habe in den letzten 15 Jahren ziemlich genau 50% ATI/AMD und 50% nvidia genutzt, davor die 3dfx Profukte.

Shadow of Mordor, nochmals, lief gestern auf meinen 3,5 GB VRAM ;) 970ern mit 90 bis 100 (!) Frames mit allen Optionen auf ULTRA (mit dem 6 GB texturen angeblich?!) stabil. Auf 1440p sehe ich nix in Sicht was "weh" tun wird.
GTA V wird von dem Team produziert, das Max Payne 3 gebastelt hat. Der Titel ist älter, den spiele ich auf Max Settings Ultra auf 130 bis 140 frames. Ich bin total entspannt und würde heute sofort wieder 970 SLI kaufen für 2 Jahre Daddeln und mein Spieleverhalten.
 
Als Besitzer einer dieser MSI Karten lese ich seit dem Bekanntwerden des Problems hier in den verschiedenen Threads mit und muss mich teilweise echt wundern, was hier so alles geschrieben wird. Natürlich ist die Karte seit dem Kauf nicht plötzlich schlechter geworden und ich bin aktuell auch mit der Spieleperformance vollkommen zufrieden!

ABER, und das ist der wichtige Punkt: Ich habe die Karte bewußt gekauft, um einige Zeit Ruhe zu haben. Und da haben die 4GB VRAM eine entscheidende Rolle gespielt. Ansonsten hätte ich auch knapp 150€ weniger ausgeben und mir eine 280X holen können und dann in 2 Jahren wieder eine neue gekauft. Die hätte mir im Moment von der Leistung her auch gereicht.

Zudem geht es mir auch ums Prinzip: NVIDIA hat mit der Angabe des Specs die Kunden betrogen und sollte sich nun was einfallen lassen, diese zu entschädigen. Es kann auch nicht sein, dass das an den Händlern hängen bleibt. Die können am wenigsten dafür.

Ich werde vorerst noch abwarten und schauen wie sich NVIDIA und die einzelnen Händler in den nächsten Tagen äußern. Für mich, dem es eigentlich egal ist, von welchem Hersteller die Karte kommt und eh nur nach dem P/L Verhältnis geht, ist das ein ziemlicher Vertrauensbruch von NVIDIA.
 
@ Laphonso

Willst du jetzt bei jedem User der evtl. eine andere Meinung wie du hat, den mehr oder weniger selben Text drunterpflanzen. Ich denke jeder sollte langsam deine Meinung vernommen haben. Keiner will dir deine 2 970er wegnehmen. Alles ist gut.

Andere Menschen empfinden anders haben andere Meinung, kann doch nicht so schwer zu akzeptieren sein, oder?

Alle regen sich über das Bashing auf, aber immer wird versucht den Leuten ihre Meinung auszureden, anstatt man einfach sich jeden mal auskotzen lässt und gut ist.
 
mackenzie83 schrieb:
jetzt wirds langsam echt lächerlich.. hat jemand probleme, da nur 3,5gb funktionieren oder nur 56 ROPs angeschlossen sind? wird die karte jetzt schlechter, nur weil sich auf dem papier was geändert hat? also ich glaube ihr sucht das haar in der suppe.. ja klar bei 4k reichts nicht mehr aus, aber ich kenne keinen fall bei 1080p das irgendwas nun dadurch unspielbar wird.

.........


btw: bevor das gejammer gleich wieder losgeht: ich habe zur zeit ne 295X dual gpu von amd im rechner.


also muss schon sagen, kann den ganzen Aufruhr hier auch nicht ganz nach voll ziehen :rolleyes:

jeder 2. hier macht einen Riesen-Radau obwohl es nur wenige betrifft - auf die Gesamtanzahl gesehen...
Unzählige Sites haben die Karte getestet(auch CB) und eingentlich keinem ist das mit dem Speicher vorher(Erscheinungstermin) konkret aufgefallen und das obwohl, so wie es hier einige schildern, ein so "gr. Problem" ist?

wo wird man heut zu Tage nicht mehr übertriebenes Marketing betrieben...
 
mackenzie83 schrieb:
das problem ist mir völlig egal, einzig wichtig ist, wie die gpu in der leistung abschneidet und wie die erreicht wird ist völlig egal. wie gesagt, durch die änderung der spez. wird die karte nun auch nicht schlechter und wem die vorher gereicht hat, wird wohl kaum ankommen und sagen: was doch nur 3,5GB VRAM?! dann muss die karte weg..

Oh doch, so ist es. Ich konnte bisher alles in zufriedenstellenden Frameraten spielen aber zum einen habe ich mir eine Karte mit 4GB gekauft, nicht mit 3,5 und zum anderen lass ich mich nicht für blöd verkaufen!
 
Laphonso schrieb:
0,5 VRAM high perf und 3,5 GB low perf wäre aufgefallen in den Tests.
Wäre aufgefallen? Ist es aber nicht, also bilden sich das alle nur ein mit dem gesplitteten VRAM oder wie?


Lyle schrieb:
Wie lange sollte man so eine GraKa eigentlich nutzen?
Das dürfte insbesondere bei 2x970 im SLI nicht deutlich länger als anderthalb bis zwei Jahre sein, wenn überhaupt.


Laphonso schrieb:
don't break the anti nvidia circlejerk ;-) Viele haben hier gar keine Lust mehr auf differenzierte Darstellung, blindes bashen in der Herde schockt einfach mehr.

Das ist witzig, weil drei Sätze später das hier kommt:

Laphonso schrieb:
Ich kenne nicht 1 Person, die sich seit Oktober keine 970 oder 980 gekauft hat.
Jetzt will ich auch mal: "don't break the pro nvidia circlejerk ;-) Viele haben hier gar keine Lust mehr auf differenzierte Darstellung, blindes hypen in der Herde schockt einfach mehr." :freaky:

Wäre nett, wenn wir jetzt wieder etwas sachlicher werden könnten. Ja, du liebst deine 970 und deine "Gamercommunity" auch, das ändert aber nichts daran, dass sich Leute verarscht vorkommen und und keine Lust haben, alles mit sich machen zu lassen.
Ich weiß nicht, weshalb dich diese Tatsache so anstachelt, als wäre das eine höchstpersönliche Beleidigung für deine Lieblingskarten.

Waelder schrieb:
Unzählige Sites haben die Karte getestet(auch CB) und eingentlich keinem ist das mit dem Speicher vorher(Erscheinungstermin) konkret aufgefallen und das obwohl, so wie es hier einige schildern, ein so "gr. Problem" ist?
Weil das auch erst in knapp einem Jahr richtig flächendeckend nerven wird, wenn die Spiele sich nochmal mehr VRAM genehmigen - ja, auch unter Full HD. Momentan betrifft das erstmal nur das groß beworbene DSR und einige neue Titel wie Mordor oder FC4, siehe Test.
Aber bis in einem Jahr gibt es dann aber praktischerweise die neue Generation :freaky:

Edit:
Dazu kommt halt auch, dass vermutlich einige von 3GB ein Upgrade auf 4 machen wollten. Wenn dieses Upgrade dann quasi halbiert wird, ist das auch nicht grad klasse.
 
Zuletzt bearbeitet:
Für die BWLer sind halt 224 Bit + 32 Bit = 256 Bit.
Somit vollkommen korrekt gerechnet.
Da sind wir dann wieder bei der 12GHz CPU (4x3GHz) :D

Schon eine Sauerei. Da fallen jetzt bestimmt die Preise und es lohnt sich wieder diese verschnittene Karte zu kaufen.
 
Zurück
Oben