Test VRAM bei Grafikkarten: Das Ende von 4 GB für Modelle über 300 Euro naht

Status
Für weitere Antworten geschlossen.
hoffe das die grünen mit pascal dann 8GB und mehr zur seite steht damit es sich dann auch lohnt.
8GB sind 2016 dann wieder 50% vom Vram soll, das Spiel geht von vorne los. Das ist nicht recht viel mehr als die 4GB 2015 wert waren. https://www.computerbase.de/forum/attachments/12052015492-jpg.495986/

Man muss verstehen das die Zeit nicht stehen bleibt und sich der Vram alle 2 Jahre verdoppeln muss, sonst ist man unter Soll. Man muss aufhören das ganze in Zahlen zu rechnen, die einen schnell blenden können. (boa doppelt so viel Vram, aber doppelt so viel von 30% sind immer noch zu wenig)

Kurzes Vram Fazit der lezten 1-2 Jahre.
GTX 970 3,5GB Super Karte für Leute die sich jedes Jahr eine neue GPU kaufen wollen, also gleich das Gegenstück dazu bei der Pascal Generation. Das wäre dann eine GTX 1070 7-8GB Karte.
Wer die Karte gekauft hat um sie so lange wie möglich zu fahren, die Rechenleistung optimal zu nutzen, wurde von NV durch einen klassischen Vram Krüppel wie er im Buche steht verarscht.

GTX 980TI 6GB Super Karte für diejenigen die sich sofort bei Big Pascal den entsprechenden Gegenspieler kaufen wollen. 6GB werden nicht mehr so lange durchhalten. ca. 2 Jahre nach Kauf wirds kritisch.

Titan X 12GB Super Karte für diejenigen die die Karte 3+ Jahre ohne Vram Einschränkungen fahren wollen, mit max. Texturen. Weniger geeignet für Leute die gleich wieder eine Big Pascal Titan kaufen vom Vram her, weil man dann im Prinzip ein Ruckerln zu viel Vram für horrende Preise mit genommen hat. Normalerweise hätte da auch eine 980TI gereicht. Werde aber niemanden verteufeln der sich lieber ein wenig mehr Vram zulegt als notwendig.

Titan X dazu noch die perfekte Karte für SLI/Quad SLI
 
Zuletzt bearbeitet:
Dai6oro schrieb:
1440p war noch nie was für ne GTX 970 und wird es auch nie sein. Aktuelle Spiele bestätigen den Trend zu großem VRAM Bedarf auch hier hat die GTX 970 ihre liebe Not siehe XCOM 2, Division , Tombraider oder Hitman.

Das Argument nur auf 1080p zu spielen zieht dabei imo nicht denn zumeist ist Downsampling von der Rohleistung möglich und auch die bessere Kantenglättung. Im Endeffekt hat Nvidia bei der GTX 970 ein Verfallsdatum eingebaut.
Wie jetzt? 1440p war nie was für die 970, aber Downsampling reicht dann prinzipiell doch von der Rohleistung? Wie passt denn das zusammen?
 
Das wird mal wieder 'ne lustige Diskussionsrunde. Solange ich in FHD nicht die Probleme habe, ist es mir relativ egal, obs aufwärts Probleme gibt. Natürlich ist 1440p etwas hübscher. Und? Dann stell ich die Schatten von Ultra auf hoch und hab keine Sorgen. Das Spielerlebnis wird Mr. Ultraschatten wohl kaum in eine andere Dimension verlagern.
 
Thrawn. schrieb:
Also ich persönlcih würde nicht so Sprüche klopfen mitner "High-End" R9 280...



Die sagen das die GTX 970 eh die falsche Karte für 1440P ist, da zu wenig Rohleistung vorhanden. Bei Full HD oder 1050P ist die GTX 970 perfekt.

Mal ganz davon abgesehen, dass es ziemlich armselig ist Menschen nach ihrer Grafikkarte zu bewerten oder ihnen deshalb irgendwie den Mund zu verbieten, hat er für seine r9 280 vor wahrscheinlich mehr als 2 Jahren unter 200 Euro bezahlt und dafür das bekommen, was drauf stand.
Und Nein es gibt auch Spiele die dir gtx 970 auch in FHD ins Vramlimit drücke. Außerdem ist es schlicht und ergreifend Betrug und sowas sollte man als normal denkender Mensch nicht unterstützen.
Des Weitern sollte man sich mal den "genialen" Treibersupport der 700 und 600 Reihe angucken, um sich dann zu fragen wie gut der Krüppelspeicher in 1-2 Jahren noch irgendwie kaschiert wird.
 
sacgbö schrieb:
[...]Und Nein es gibt auch Spiele die dir gtx 970 auch in FHD ins Vramlimit drücke[...]
Naja, wenn es danach geht, drücke ich dir so ziemlocj jede Karte bei 1080p ins VRAM-Limit. :rolleyes:

Schau dir doch nur mal den Thread von ""Hisn" hier im Forum an...
 
Zuletzt bearbeitet:
Nacho_Man schrieb:
Wieso kommt es mir so vor als ob nur schlecht programmierte Spiele mehr als 4GB benötigen? :p
Man könnte sich auch fragen wieso ihr gerade jene testet? :rolleyes:

Mit meiner GTX 980 mache ich mir jedenfalls keine Sorgen, denn derartig schlechte Spiele werden einfach boykottiert. :D

/sign

Wenn ich die CB-Artikel zu VRAM-Verbrauch lese bekomme ich immer mehr das Gefühl dass da einige Ram-Fetischisten sitzen. :D

Abgesehen davon sind aber in dem Artikel einige gewagte Annahemen getroffen worden:

- GTX970 wird wie eine 4GB Karte behandelt
- Mangels alternativen wird die 390x mit der Fury verglichen bzw. 980 mit der 980Ti
- CoD in LOTR die als sehr schlecht optimiert bekannt sind werden zu Messung herangezogen

Sorry, aber das ist mMn. eine recht schlechte Grundlage um fundierte Ergebnisse zu bekommen.
 
zu mordors schatten und dem vram. hatte eine 290x 8gb. jetzt eine 980TI. beide kommen auf den selbn vram verbrauch von ~6.1gb. hatte mit beiden karten keine ruckler.

in 2160p alles auf anschlag
980ti
ShadowOfMordor_2016_01_25_23_53_19_326.jpg
290x
ShadowOfMordor_2015_07_29_19_39_54_434.jpg
 
Danke für den Test. Zeigt auch gut wie FPS wenig mit dem eigentlichen Spielempfinden zu tun haben. Mit meiner alten 2GB Karte hatte ich oft 30FPS die sich eher wie 20 und darunter angefühlt haben.

AMD hat mit den 8GB viel richtig gemacht, hoffentlich erreichen sie diese 8GB auch zeitnahe mit HBM. Schlecht wäre eine neue Mittelklasse mit nur 4GB die so schnell ist wie die heutigen 390er - das wäre ne Rolle Rückwärts und nicht sinnig.

Übrigens trifft der Test hier auf viele Games zu:

Batman AK
GTA 5
alle AC
Anno
Tomb Raider (auch am Anschlag der 6GB in 4k)

...
 
Zuletzt bearbeitet:
AvenDexx schrieb:
Wie jetzt? 1440p war nie was für die 970, aber Downsampling reicht dann prinzipiell doch von der Rohleistung? Wie passt denn das zusammen?

Naja für Downsampling reicht sie halt selten, zumindest wenn man adäquate FPS möchte
 
Hab mir genau deshalb eine GTX 980Ti gegönnt, da die alte GTX970 bei 3440x1440 einfach immer boykottiert hat.

Na da hast du es NVIDIA mit deinem Boykott deiner bereits bezahlten 970 mit dem Neukauf einer 700€ Karte ja so richtig heimgezahlt! :rolleyes:
Ich geh dann mal meinen Kopf an die Wand donnern :freak:
 
Also mit meiner 680 komme ich aktuell noch recht gut aus. Wenn die Settings auf Mittel-Hoch eingestellt sind. Spätestens Ende dieses Jahres wenn Mass Effect Andromeda rauskommt werde ich mir wahrscheinlich eine Pascal oder Polaris Karte gönnen.
 
M4deman schrieb:
@Schagur: Wtf?
Tonga/Antigua? Hawaii/Grenada? Fiji?
Zudem ist der einzige Kommentar im Test bzgl. AMD Treiber, dass die Speichernutzung für Fiji optimiert wurde. (Sofern ich nichts überlesen habe).

Ist doch alles GCN, oder? So oder so, AMD hält die GCN sehr lange am Markt und das ist keine Kritik, im Gegenteil.
Aber die Treiber müssten doch viel besser sein. Auch wenn der Treiber nicht negative erwähnt wird (im Test) so ist es aber auch die Mitschuld der Schrott Treiber. Die AMD Karten haben einfach mehr Rohleistung und dazu schneller im gpu computing.
 
Thrawn. schrieb:
Naja für Downsampling reicht sie halt selten, zumindest wenn man adäquate FPS möchte
Das betrifft doch Downsampling genau so wie die native Auflösung von 1440p. Wo soll da der gravierende Unterschied sein? Bei beiden Szenarien kommt es zu primären Problemen mit dem VRAM.
 
Sehr guter Test. Da habe ich wohl mit meiner Titan X alles richtig gemacht:D ! Die nächste Generation von GPU´s wird wohl das doppelte (zum jetzigen Äquivalent) an VRAM verbauen müssen wenn man sich die derzeitige Lage anschaut. Habe in The Division einen Verbrauch von ca. 5-max. 5,5 GB VRAM @1080P gehabt.
 
sacgbö schrieb:
Mal ganz davon abgesehen, dass es ziemlich armselig ist Menschen nach ihrer Grafikkarte zu bewerten oder ihnen deshalb irgendwie den Mund zu verbieten, hat er für seine r9 280 vor wahrscheinlich mehr als 2 Jahren unter 200 Euro bezahlt und dafür das bekommen, was drauf stand.
Und Nein es gibt auch Spiele die dir gtx 970 auch in FHD ins Vramlimit drücke. Außerdem ist es schlicht und ergreifend Betrug und sowas sollte man als normal denkender Mensch nicht unterstützen.
Des Weitern sollte man sich mal den "genialen" Treibersupport der 700 und 600 Reihe angucken, um sich dann zu fragen wie gut der Krüppelspeicher in 1-2 Jahren noch irgendwie kaschiert wird.

Naja meine Meinung ist eben das man nicht gross Sprüche klopfen soltle wenn man selbst noch tiefer drinne sitzt..
Man kann jedes Game in Full HD ind Vram Limit drücken, nur reicht dann die Rohleistung sowieso nicht für spielbare FPS, Ergo ein windiges Argument.

Man merkt ja garnicht das du ziemlich rot bist, also meine GTX 580 hat über 4 Jahre gut Funktioniert, die 660Ti ebenfalls bis vor ein paar Monaten, aber hey mach dir ruhig die Welt wiese dir gefällt, nur NVIDIA Marktanteil wird das nicht verändern ;)

PS: Grad ne GTX 960 4GB in den neuen Rechner für die Mum eines Kumpels verbaut, auf Hitzescheudern hate ich nichtso Lust
 
Wie jetzt? 1440p war nie was für die 970, aber Downsampling reicht dann prinzipiell doch von der Rohleistung? Wie passt denn das zusammen?

Ist doch ganz einfach. Die Rohleistung (Rechenleistung) ist noch ganz ok für 1440p der Speicher macht dies zunichte. Ist doch nicht zu schwer zu verstehen.
 
Ich habe das Gefühl, dass manche schon die Einleitung des Tests nicht verstanden haben...
Sowohl ein GTX970, als auch eine R9-290/290X bieten Leistungstechnisch genug Rohleistung im Chip, um Spiele in 1440P stabil und mit annehmbaren Wiederholraten wiederzugeben.

Es ist in diesem Fall also keine Frage, dass die Begrenzung nicht in der GPU-Leistung ruht. Erkennbar ist das, wenn man die 290X und die 390X vergleicht. Der Chip ist nahezu baugleich und die ersten Tests hatten gezeigt, dass sich die 390er-Generation nur aufgrund höherer Taktraten absetzen konnte und etwas weniger Verbrauch hatte.

Die Frage hier war viel mehr, ob der verbaute Speicher ausreichend ist, um die Rohleistung der Chips auch umzusetzen. Dazu lautet die Antwort nein, und zwar bei nahezu allen Karten mit nur 4GB Speicher. Die 390X demonstriert dies mehr als deutlich.
Warum es immer noch Menschen hier gibt, die sich das schönreden und mit der Statistik argumentieren, wie wenige doch in 1440p spielen, verstehe, wer will. Ich tus jedenfalls nicht.

Denn: Wenn eine Karte in der Lage ist von der Chipleistung 1440p zu ermöglichen, aber dann am Speichertod stirbt, weil nicht genügt Material für den Chip im Speicher landen kann, dann hat man wohl nicht weit genug gedacht.
AMD hat da mit der 390-Serie und auch darunter mit der 380 und 380X, die man fast nur als 4GB-Variante bekommt die Hausaufgaben gemacht.
Von Nvidia kann man das nicht behaupten. Die 960 mit 4GB kostet genauso viel wie die 380X und hat weniger Leistung
Die 970 disqualifiziert sich mit ihren 3,5GB Speicher und die 980 läuft trotz hoher Rohleistung auch schon fast ins Speicherlimit.
So gut sich die 900er-Reihe verkauft hat und so sparsam die Karten sind. Hier hat Nvidia in der Nachbetrachtung den Trend zu immer mehr Texturen und somit Speicherbedarf verpasst.
 
AvenDexx schrieb:
Das betrifft doch Downsampling genau so wie die native Auflösung von 1440p. Wo soll da der gravierende Unterschied sein? Bei beiden Szenarien kommt es zu primären Problemen mit dem VRAM.

Das meine ich doch, die Karte is nix für 1440P, ABER nicht jeder hat das geld fürne erheblcih teurere GTX 980 und möchte trotzdem NVIDIA, für 1080p auch ne top Wahl.
Ergänzung ()

Dai6oro schrieb:
Ist doch ganz einfach. Die Rohleistung (Rechenleistung) ist noch ganz ok für 1440p der Speicher macht dies zunichte. Ist doch nicht zu schwer zu verstehen.

Eben bei weitem nicht immer, die FPS sind nicht der Hit bei 1440P ohne Vram Limit, wobei natürlcih für jeden "spielbar" was anderes ist..
 
Danke für den Test. Schön wäre in dem Rahmen vielleicht noch ein kleiner Ausblick gewesen, wann die neuen Garfikkarten-Generationen von AMD und Nvidia kommen bzw. was man da so erwarten darf, gerüchtehalber heißt es ja Spätsommer bis Herbst 2016. Ich weiß, viel Infos gibt es noch nicht, aber es wird in 2016 sicher viele Spieler geben, die aufgrund der sinkenden Preise für 4K oder gar 5K-Monitore auf was Schärferes umsteigen wollen und dann wird bei Games doch mal an der Auflösungsschraube gedreht. Werden die neuen Karten - im Vergleich zu den hier getesteten, "älteren" Karten - dafür ausreichen oder muss man dann immer noch massiv Details reduzieren, um in 4K zocken zu können?
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben