Test VRAM bei Grafikkarten: Das Ende von 4 GB für Modelle über 300 Euro naht

Status
Für weitere Antworten geschlossen.

Wir haben den Wechsel gerade hinter uns. 8 Threads - 16GB ram - min 4GB Vram. So hält man mit den jetztigen Konsolen mit. Die Grafik Engines werden erstmal lange ausgeschlachtet. Eine 390X / GTX 980 müsste sehr lange halten.

Die Xbox 4K oder die Playstation 5 erscheinen wohl erst im Sommer 2018. Zur E3 2017 sollen die Vorgestellt werden.
 
Dai6oro schrieb:
Ist doch ganz einfach. Die Rohleistung (Rechenleistung) ist noch ganz ok für 1440p der Speicher macht dies zunichte. Ist doch nicht zu schwer zu verstehen.
Was macht die Karte denn beim Downsampling anders, abgesehen davon, dass das Bild auf einer geringeren Auflösung ausgegeben wird? Die Rohleistung passt prinzipiell in beiden Fällen und in beiden Fällen ist die VRAM-Problematik der springende Punkt.

Thrawn. schrieb:
Das meine ich doch, die Karte is nix für 1440P, ABER nicht jeder hat das geld fürne erheblcih teurere GTX 980 und möchte trotzdem NVIDIA, für 1080p auch ne top Wahl.
Ja, aber dann bleibt meine Frage bestehen. Schau dir mal an, was derjenige geschrieben hat, den ich zitiere. Er meint, dass eines der beiden noch ok sei, während das andere Szenario dann plötzlich gar nicht angedacht war. Da beist er sich in gewisser Weise doch selbst in den Schwanz.
 
Zuletzt bearbeitet:
Es ist schon interessant, wie sich der Speicherhunger über die Jahre verändert hat. Bald ist die Zeit gekommen, an der der notwendige GPU Speicher die des Arbeitsspeichers überholt.

Der Test liefert aus meiner Sicht kein eindeutiges Fazit, da es sehr aus Spiel ankommt. Selbst 4GB kann für 1080p in 3 Jahren zu wenig sein, wenn man sich die GPu Serien vor 3/4 Jahren ansieht, da wurde auch schon in 1440p gezockt.
 
Ähm ja.
Ich lese hier immer und immer wieder das die 970er nicht für 1440p sei..Tjo ich spiele einige spiele @max mit 1440p FC3,4, Witcher 3 etc, und es läuft butter weich. Und nun ?
Zwar nicht dauerthaft 60 fps aber das stört mich nicht. Ich brauche auch nicht immer 60 fps damit ich zufrieden bin :D

Btw, und nein ich bin kein Nvidia fanboy. Das ist meine 2te Nvidia und hatte davor ausschließlich AMDs (sogut wie alle Generation) und ebenso eine 290 davor.
 
[F]L4SH schrieb:
Na da hast du es NVIDIA mit deinem Boykott deiner bereits bezahlten 970 mit dem Neukauf einer 700€ Karte ja so richtig heimgezahlt! :rolleyes:
Ich geh dann mal meinen Kopf an die Wand donnern :freak:

Ich glaube er meinte das seine 970er die Auflösung boykottiert hat, und nicht er die Firma NVIDIA.

Du solltest deinen Kopf weniger gegen die Wand donnern ;)
 
Siemens-Nixdorf schrieb:
Wo gibts deine Glaskugel zu kaufen? :rolleyes:

Ich schrieb doch erscheinen wohl . Das Datum ist schon sehr realistisch.
 
pmkrefeld schrieb:
Wenn ich die CB-Artikel zu VRAM-Verbrauch lese bekomme ich immer mehr das Gefühl dass da einige Ram-Fetischisten sitzen. :D

Und da möchte ich mich gerne dazuzählen. Speicher hat man nie genug....und ich hab nur 16 GB Hauptspeicher und 4 GB auf der GPU... :(
 
Der Test hat mich auch wieder daran erinnert, dass ich gerne eine Titan X hätte. Ist in etwa doppelt so schnell als meine alte Titan bei dem was ich gerade so mache und hat doppelt so viel DRAM :(. Aber die Titan X ist gerade noch so teuer . . . .
 
Ja, aber dann bleibt meine Frage bestehen. Schau dir mal an, was derjenige geschrieben hat, den ich zitiere. Er meint, dass eines der beiden noch ok sei, während das andere Szenario dann plötzlich gar nicht angedacht war. Da beist er sich in gewisser Weise doch selbst in den Schwanz.

Die GTX 970 wäre für 1440p genauso geeignet von der Rechenleistung wie z.B. eine R9 290X aber der Speicher limitiert hier zusätzlich. Bestes Beispiel ist hier COD BO3. In 1440p ist die GTX 970 mit hohen Texturdetails schon nicht mehr spielbar, da muss man zurück auf mittlere während andere Karten mit 4GB nicht einbrechen. Texturen gibts praktisch umsonst wenn genug VRAM zur Verfügung steht, das hat dann nichts mit der Rohleistung zu tun.
 
Zuletzt bearbeitet:
Wenn ich mir die Aussage anschau, das die Karte mehr als ausreichend GPU Power für 1440p haben, muss ich leider widersprechen wenn auf sehr hohen Niveau. Ich empfinde eine Karte erst als richtig schnell wenn bei 1440p auf Ultra die Regler sind und die Minium FPS 60 sind.
Ist halt meine persönliche Meinung aber die Karte sind nicht wirklich für 1440p HighEnd ausgelegt. Warten wir die nächste Generation und DX12 ab.

mfg
 
AvenDexx schrieb:
Was macht die Karte denn beim Downsampling anders, abgesehen davon, dass das Bild auf einer geringeren Auflösung ausgegeben wird? Die Rohleistung passt prinzipiell in beiden Fällen und in beiden Fällen ist die VRAM-Problematik der springende Punkt.

Das ist genau die Aussage von Dai6oro:

Die Leute, die ihre 970 mit dem 1080p-Argument verteidigen denken zu kurz, schließlich könnten sie ihre theoretisch ausreichende Rohleistung in DS für bessere Bildqualität nutzen, was gerade für mehrere neu erschienene Games, die kein MSAA bieten und in 1080p ziemlich hässlich flimmern (z.B. ROTR) beinahe ein Muss ist, andererseits können sie dies speicherbedingt nicht/ erfordert dies deutliche Einschränkungen in der Texturqualität.

Ergo: als Neuanschaffung ist der GM204 mit seiner VRam-Beschränkung (970: 3,5GB ; 980: 4GB) nicht mehr das Optimum, vorausgesetzt man will die Karte etwas länger behalten oder nicht unnötigerweise Texturdetails reduzieren.
 
Morrich schrieb:
Wenn ich mir anschaue, wie gering (bis teils nicht vorhanden) in vielen Spielen die grafischen Unterschiede zwischen "hoch" und "ultra" sind, kann mir diese letzte Grafikstufe echt gestohlen bleiben.
Wenn man dann nur auf "hoch" spielt, laufen viele Games schon wieder deutlich flüssiger. Und da man durchaus einige Effekte auch einfach abschalten kann (wodurch manches Spiels sogar besser aussieht), kann man nochmal etwas Leistung sparen, ohne große optische Einbußen zu haben.

Am Ende kommt es dann dabei raus, dass man mit nur geringen oder sogar gar keinen optischen Abstrichen auch mit schwächeren GPUs gut und flüssig spielen kann. Zumindest in FullHD.[...]

sehe ich genauso, nach 290X und GTX970 hab ich (da nur noch selten gezockt wird) mit der GTX 750Ti auch in keinem Game Probleme...settings leicht runter und läuft einwandfrei :)
es gibt bekanntlich auch niedrigere Einstellungen, die im Endeffekt wenig an der Optik verschlechtern ;)
 
Also wie bereits zuvor gewusst. Dass BO3 ein richtig mies programmiertes Spiel ist, ist ja nichts neues mehr. Ansonsten sind die AMD Frametimes trotz normalen Speicher in der Gesamtheit schlechter, instabiler als bei den nVidia-Karten - das ist mal eine Leistung von dem Verein.

Für 1440p/60fps war die 970 sowieso noch nie gedacht. Wenn man auf biegen und brechen irgendwelche sinnlose Szenarien erstellt um etwas "aufzuzeigen" dann ist das jedem sein eigener Kaffee, hat aber wenig Auswirkung auf die Reallife-Performance.
 
terraconz schrieb:
Für die einstelligen % der Gamer die > 1080p zocken ja aber die Gruppe ist so winzig und imho hätte man da sowieso gleich zu 6 oder 8gb als zu 4gb greifen sollen. Schaut man sich die durchschnittsgamer an (nicht hier im Forum, das ist nicht mal im Ansatz der Durchschnitt!) dann sieht man das laut letztem steam survey 26,62% der Gamer in 1366x768 zocken, 35,11% in 1920x1080 zocken und nur 3,64% aller Gamer auf Steam in einer Auflösung > 1080p zocken. Für diese 3,64% hast du Recht ist die 970 die falsche Wahl aber ich vermute das diese Gruppe auch soweit informiert ist das sie gleich Grakas mit > 4gb RAM genommen haben.

http://store.steampowered.com/hwsurvey?l=german

Genau so sieht es aus.

Und die paar Leute, die hohe Auflösungen nutzen, müssen dann auch erst mal die hier getesteten Spiele spielen. Ich nutze auch eine 970 und eine hohe Auflösung auf 30"und hatte nie Probleme, bin aber eben auch kein hardcore Zocker sondern spiele 2-3 mal die Woche mal ein Stündchen Rome Total War 2, GTA V, World of Warships oder Elite. Und dabei habe ich bisher keine Probleme gehabt. Und selbst wenn, dann würde ich einfach die Auflösung beibehalten aber die sonstigen Einstellungen von extrem hoch auf sehr hoch runter stellen^^

Jeder hat dazu seine Meinung. Aber die Gruppe, die wirklich die wenigen problematischen Titel in genau der Auflösung spielt und dann damit ein Problem hat und nicht meint, dass 45 Frames/s eher ein Problem sind, ist halt sicherlich deutlich unter 1% der Spielerschaft. Und das muss man sich vor Augen führen wenn man das überhaupt als Problem identifizieren möchte. Deshalb lässt mich auch das Triumphieren der AMD Jünger hier nur müde lächeln.

Ich finde die 970 hatte, als sie damals heraus kam, ein gutes P/L Verhältnis. Und Leute, die genug Geld haben für einen free-/gsync Monitor in Auflösungen >2560 suchen sich vermutlich auch eine teurere GPU. Ich selbst würde dann in ferner Zukunft für vielleicht noch höhere Auflösungen eben auch deutlich mehr GPU Power benötigen. 4 GByte finde ich für 99% der Anwendungsfälle einer ~300 € GPU genau passend.
 
Ansonsten sind die AMD Frametimes trotz normalen Speicher in der Gesamtheit schlechter, instabiler als bei den nVidia-Karten - das ist mal eine Leistung von dem Verein.

Falsch. Sie haben an der Anzahl mehr Ausreißer die aber vom zeitlichen Faktor geringer ausfallen. Diese Miniaureißer wirst du kaum bemerken regelrechte Stocker wie bei der GTX 970 aber schon.
 
Dai6oro schrieb:
Die GTX 970 wäre für 1440p genauso geeignet von der Rechenleistung wie z.B. eine R9 290X aber der Speicher limitiert hier zusätzlich. Bestes Beispiel ist hier COD BO3. In 1440p ist die GTX 970 mit hohen Texturdetails schon nicht mehr spielbar, da muss man zurück auf mittlere während andere Karten mit 4GB nicht einbrechen. Texturen gibts praktisch umsonst wenn genug VRAM zur Verfügung steht, das hat dann nichts mit der Rohleistung zu tun.
Ja, das ist klar. Das verstehe ich auch und erwähnte ich ja selbst (zumindest das Prinzip der VRAM-Problematik). Dennoch sprichst du davon für 1440p nie gedacht, ob Downsampling ok. Wenn sie nicht für 1440p gedacht ist, gibt es mit dem Downsampling die gleichen Probleme und somit ist sie dafür dann eigentlich auch nicht gedacht.

Die Rechenleistung reicht prinzipiell für 1440p, sowie Downsampling. Kommen VRAM-Optionen wie hohe Texturen ins Spiel, wird der VRAM zum Problem. Dabei ist es egal, ob 1440p oder Downsampling.

Edit:
BookerDeWitt schrieb:
Das ist genau die Aussage von Dai6oro:

Die Leute, die ihre 970 mit dem 1080p-Argument verteidigen denken zu kurz, schließlich könnten sie ihre theoretisch ausreichende Rohleistung in DS für bessere Bildqualität nutzen, was gerade für mehrere neu erschienene Games, die kein MSAA bieten und in 1080p ziemlich hässlich flimmern (z.B. ROTR) beinahe ein Muss ist, andererseits können sie dies speicherbedingt nicht/ erfordert dies deutliche Einschränkungen in der Texturqualität.

Ergo: als Neuanschaffung ist der GM204 mit seiner VRam-Beschränkung (970: 3,5GB ; 980: 4GB) nicht mehr das Optimum, vorausgesetzt man will die Karte etwas länger behalten oder nicht unnötigerweise Texturdetails reduzieren.
Ah soooooo, jetzt verstehe ich was gemeint war. Ok, in der Hinsicht ist das natürlich korrekt. Naja, entweder stand ich auf dem Schlauch oder es war schlicht etwas unglücklich formuliert. Vielleicht auch etwas von Beidem.
 
Zuletzt bearbeitet:
Nicht falsch, das ist eine Tatsache. Und vorallem: Ohne Begründung. Wie lautet die Begründung bei den AMD Karten für diese Frametimes-Ausreißer? "Weil AMD"?

Die Rechenleistung der 970 ist je nach Titel schon weit vor dem Speicher ein Problem, von genügend Rohleistung lann nicht die Rede sein. Wenn man Spiele wie GTA5 oder The Crew Wild Run als Beispiel nimmt, ist der Speicher noch das geringste Problem sondern die fehlende Power. Sicher ist irgendein kaputtgemoddetes Spiel aus 2012 in der Lage den Speicher vor der GPU voll auszulasten, das ist aber dennoch nicht realistisch.
 
Zuletzt bearbeitet:
VRAM bei Grafikkarten:Schlechte Ports benötigen immer mehr als Gute.
 
SchaGur schrieb:
Wir haben den Wechsel gerade hinter uns. 8 Threads - 16GB ram - min 4GB Vram. So hält man mit den jetztigen Konsolen mit. Die Grafik Engines werden erstmal lange ausgeschlachtet. Eine 390X / GTX 980 müsste sehr lange halten.

Die Xbox 4K oder die Playstation 5 erscheinen wohl erst im Sommer 2018. Zur E3 2017 sollen die Vorgestellt werden.

Das ist der Punkt.

Die 6, 8 und 12 GB Karten werden natürlich ausgelastet werden, sonst hätten sie keine Daseinsberechtigung. 2K -4K Auflösungen und Maximale Details sorgen dafür.

Man muss aber auch bedenken, dass sich maximale Details einfach nur an dem Leistungsbudget orientieren, das verfügbar ist. Wenn nächstes Jahr eine GTX1080 doppelt so schnell wäre wie eine 980ti und 12 GB VRAM hätte, dann wird es auch Spiele geben, die das nutzen, auch wenn der optische zugewinn minimal ist, da die Grafik nunmal für Konsolen designt wurde.

Letzten Endes wird die Leistung eben genutzt, weil man es kann, nicht, weil es sinnvoll ist. Das ist mit dieser Konsolengeneration krasser denn je. HBAO+ ist in den meisten fällen schon der mit Abstand größte Unterschied zu den Konsolenversionen.
Was bei den Texturen abgeht sieht man bei Rise of the Tomb Raider. Hier werden mit maximaler Stufe einfach Texturen genutzt, die unglaublich verschwenderisch mit dem VRAM umgehen. Die Kompression ist minimal, man könnte fast meinen, die haben hier einfach direkt aus Photoshop die original Files reingeschmissen, so als kleines Extra für die Zukunft, wenn wir Karten mit 64 GB VRAM im Rechner haben oder so.... Das ist nicht verkehrt, aber der optische Zugewinn ist so dermaßen minimal, dass es einfach keinen Sinn ergibt, deswegen aufzurüsten. Wenn VRAM oder Leistung da ist, KANN man sie nutzen. Man hat aber keine Nachteile, wenn man es nicht tut und auf Settings zurückgreift, die zumindest halbwegs optimiert sind.

Division ist ein weiteres gutes Beispiel. Das Game zieht Leistung ohne Ende mit maximalen Details, der Unterschied ist aber so verdammt gering, dass man selbst bei mittleren Details noch einen 1:1 overlay Screenshotvergleich braucht, da man side-by side keine Unterschiede ausmachen kann.

Man sollte sich da echt nicht verrückt machen. Die Games werden für Konsolen designed, und sehen bei maximalen Details nicht dermaßen viel besser aus. Wer hier wegen maximalen Details auf 60+ FPS trotz guter Hardware verzichtet oder Unsummen dafür ausgibt ist doch selbst schuld. Vor 3-4 Jahren waren die Unterschiede zwischen den Detailstufen noch sehr extrem. Mittlerweile würde ich sogar auf max. Details verzichten, nur damit der Lüfter leiser wird. Wie gesagt, die Detailstufen sind mittlerweile ein Witz und ein verzweifelter Versuch, aktuelle GPUs auszulasten ohne dass nochmal die Grafikdesigner ran müssen.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben