Test 2 GB vs. 4 GB im Test: Wenn GTX 960 und R9 380 schon heute der VRAM ausgeht

@ampre: Ehrlich gesagt versteh ich nicht warum du Nai an den Karren fährt. Letztlich war er einer der Hauptgründe warum der Speicherdelikt der 970 (Ich war selbst davon betroffen und habe die Karte zurückgegeben) aufgedeckt wurde. Ich sage mal, Nai geht es um die Technik und deswegen respektieren ich ihn enorm, gegen Nvidias Geschäftspolitik vorzugehen ist einfach nicht seine Aufgabe ;) Deswegen sage ich dir: einfach etwas beruhigen und abkühlen. Interessen sind verschieden.
 
HardRockDude: nur nicht ärgern lassen ^^

@AnfängerEi: du hast den HardRockDude nicht verstanden, merkt man besonders an deinen Vergleichen. Es sind halt Vergleichsvideos, deren FPS sich so um 25-40FPS bewegen. Unterschiede besonders dann wenn man von der 2GB zur 4GB Version einer Karte greift.
Da sind dann deine Argumente ala 144Hz Monitor doch ein Witz.. welchen Vorteil hat man mit 144Hz, wenn das Spiel selber nur bei 40FPS rumdümpelt?
Grafikeinstellungen runterdrehen, so wie du gesagt hast? Ja sicher, das hat HardRockDude auch vorgeschlagen. War nur nicht Bestandteil des Artikels.
Wenn man also nur als Spieler gewohnt ist, immer die Top-Hardware zu haben und FPS jenseits der 100 zu haben, sich schon ins Gehirn gebrannt hat, ja dann sollte man auch beim Kauf der Grafikkarte darauf achten, das größere Modell zu nehmen.
Wenn aber selbst das größere Modell einfach nicht zaubern kann, sprich bei gleichen Settings auch >50FPS läuft, ja dann ist es jammern auf höchstem Niveau, was ich selber schon auf Seite5 schrieb.

HardRockDude hat es dann quasi mit den Aussagen im Artikel verglichen. Und da sind die Aussagen einfach billiges Verkäufergewäsch, wie man es täglich in jeder EDV-Ramschbude hört. CB ist aber nunmal kein Verkäufer und daher sind die Aussagen eine wilde Dramaturgie, wie bei einem Schildkrötenwettrennen.

lg
fire

ps: ich hab selber nur eine HD5770, kenne aber auch genügend Zockerkollegen, die quasi immer das neueste haben. Und wozu? Geskillte Quake3 Spieler haben zB. die Effekte auf Null gesetzt, um nicht abgelenkt zu sein.
 
Nai schrieb:
@ ampre
Meinst du nicht dass du es etwas übertreibst oder dir etwas zusammenkonstruierst?
Ich versuche dir deine Meinung zu verbieten, indem ich auf eine Häufung von Unterstellungen gegenüber CB hinweise?
Dann versuche ich damit auch noch deine Meinung zu korrumpieren?
Anschließend meinst du CB habe dir(?) einen Krieg erklärt indem es AMD kritisiert hat?
Klingt sehr "abgefahren" in meinen Augen ;). Ich finde es in dieser Hinsicht auch irgendwo ironisch, dass du auf (deine eigene) Meinungsfreiheit anscheinend viel Wert legst und dementsprechend du in deinen Augen auch CB kritisieren darfst, jedoch durch Meinungsfreihet gedeckte Kritik von anderen an dir oder an AMD als Einschränkung deiner Meinungsfreihet oder als Kriegserklärung abstempelst.

Und zu meiner Voreingenommenheit: Habe ich nicht das Nai-Benchmark geschrieben? Habe ich nicht NVIDIA eine Seite mit Fuck-You-NVIDIA in meiner Masterarbeit gewidmet? Habe ich nicht schon 1000 mal geschrieben das PHIs gegenüber GPUs ihre Darseinsberechtigung haben und, habe auch mehrmals geschrieben, dass GCN eine sehr gute Architektur ist? Reicht das nicht aus ? Muss ich auch Posts von NVIDIA-Fanboys kritisieren?

@Krautmaster
Grz zum Abschluss :)

Nein ich übertreibe nicht. Ich habe lediglich festgestellt das
a.) Windows 8.1 verwendet wurde stats Windows 10 welches ja die Speicherproblematik verbessern soll
b.) 3 von 5 Spielen mit Nvidia Software programmiert wurde.
Daraus kann man nun ableiten wie viel Gewicht man in das Testergebniss setzen sollte. Bei mir geht es gegen 0.

Ich bin gespannt auf den nächsten Test mit Windows 10. Das Wolfang die Spieleauswahl nicht großartig überdenken will nach der Kritik lässt mich aber nichts gutes hoffen.

P.s.
Deine Voreingenommenheit bezieht sich nicht auf ein Produkt sondern auf eine Gruppe von Grafikkartenanhängern. Des weiteren habe ich für Kritik immer ein offenes Ohr. Aber manche nutzen halt Ihre Macht aus um andere zu Denunzieren. Das wollte ich damit sagen.
 
Zuletzt bearbeitet:
Das ist die andere Seite der Münze mit dem Bild eines Zockers der alle Grafikregler immer bis zum Anschlag drehen will egal wie das Ergebnis aussieht. Ich würde niemals auf die Idee kommen die Grafik bei Multiplayer Shootern runterzuschrauben um eventuell einen spielerischen Vorteil zu erlangen. Geschweige denn so Nummern wie ein 4:3 Bild auf nen Breitbild monitor zu stretchen um besser zielen zu können. Da dreht sich mir der Magen um. :D
 
Schaby schrieb:
Solange man den Vram-Bedarf durch Einstellungen im Spiel verändern kann spielt der Vram hier keine Rolle. Erst wenn Spiele mehr als 2Gb Vram benötigen, ohne die Möglichkeit den durch Einstellungen weiter zu reduzieren spielt der Vram eine Rolle.

Ich würde sagen, dass du eine falsche Sicht der Dinge hast.

Angenommen ein Spiel läuft auf einer 380 mit 50~70fps, aber auf Grund der 2GB VRAM gibt es permanente Nachladeruckler. Dann musst du die Einstellungen (noch weiter) herunterdrehen, obwohl die GPU das gebotene problemlos darstellen könnte.
Passiert bei vielen aktuellen Spielen mit offener Spielwelt.
 
Zuletzt bearbeitet:
Ich sag nur, Texturen sind nicht alles.
 
Mich würde mal interessieren mit wieviel Arbeitsspeicher das Testsystem ausgestattet war. Bei 8GB und einem modernen Game kann die Grafikkarte ja weit weniger als 4GB RAM allozieren. Prinzipiell sollte es helfen wenn da mehr Speicher zur Verfügung steht, sorgt PCI-E ja für die schnelle Verbindung zum Arbeitsspeicher, nicht zur SSD.

Sorry, aber ohne Angabe des Testsystems ist dieser Test sehr viel weniger Wert. Dies und eine kurze Untersuchung des Einflusses der Arbeitsspeichermenge, dann wäre es schon sehr viel interessanter.
 
Die Anbindung zwischen der GPU und dem Host-Memory ist verglichen mit der Anbindung zwischen GPU und VRAM in etwa so wie wenn du von einem Sportwagen auf ein Dreirad umsteigst. "Nachladeruckler" heisst nicht zwingend, dass da etwas frisch von der Festplatte (egal ob HDD oder SSD) geladen werden muss, sondern umfasst sämtliche Szenarien in denen zu einem ungünstigen Zeitpunkt Daten vom Host an die Grafikkarte gesendet werden müssen und durch das PCIe-Interface ausgebremst werden.

Den Host-Memory als zusätzlichen VRAM zu nutzen hat man schon vor Jahren mit AGP-Grafikkarten probiert, aber was damals nicht so recht funktionierte funkioniert heute auch noch nicht, einfach weil die Bandbreite und Latenz zwischen der GPU und dem normalen Systemspeicher nicht stimmen. Um in etwa ein Gefühl dafür zu bekommen wie wertlos langsamer Speicher für eine GPU ist kann man sich auch einfach anschauen was mit der Performance einer GTX 970 passiert wenn die letzten 0.5 GB VRAM von einem Spiel angetastet werden (müssen). Den Host-Memory zu nutzen hätte einen vergleichbaren, wenn nicht sogar schlimmeren Effekt auf die Performance.

Idealerweise will man alle Daten im Voraus vom Host in die Grafikkarte schaufeln und diese dann in Ruhe damit rechnen lassen. In "Echtzeit" Daten aus dem Host nachladen wird aufgrund der Anbindung bei heutigen Systemen immer zu Rucklern führen. Und mal ganz davon abgesehen tue ich mich echt schwer, mehr als 8 GB Host Memory zu füllen. Das einzige Spiel das das bisher geschafft hat ist bei mir Star Citizen, und dort schiebe ich es erstmal auf fehlende Optimierung ;)
 
Wolfgang schrieb:
Die von Nvidia bei Maxwell- und von AMSD bei Tonga/Fiji beworbenen Speicherkompressionen sind nur für die Bandbreite hilfreich, nicht für die Speichergröße.

Meines Verständnisses nach werden die Daten doch komprimiert in den Speicher abgelegt, wenn es Bandbreite spart, wieso soll es dann nicht auch Platz sparen?
Gibt es dazu nähere Infos?
 
@jbauer
Vermutlich werden die Daten nur für den Transport komprimiert und beim Empfänger zur zügigeren Verarbeitung sofort wieder entpackt?
 
Etwas "passives" wie der Grafikkartenspeicher soll es womit entpacken?
Die GPU müsste die komprimierten Dateien wieder dekomprimieren und würde wieder Bandbreite benötigen und das Konzept der Komprimierung absurdum führen.
 
Doktor_Pa1n schrieb:
Ausnahme ist lediglich die Fury Reihe, welche aber HBM VRAM verwendet. Dieser ist mit 640 GB Datendurchsatz pro Sekunde etwa doppelt bis viermal so schnell wie GDDR5 VRAM. Selbst bei 6 GB Belegung, dürften 4 GB HBM also nicht einbrechen.
Auf die technische Erklärung bin ich jetzt aber gespannt. :rolleyes:

Bei >4GB Belastung ist es völlig egal, wie schnell der VRAM ist. Denn alles, was da nicht reingeht, wird dann aus dem System-Speicher geladen, der viel langsamer ist.
 
Wenn es nicht immer das neueste Spiel sein muss, dann kommt man auch mit einer GTX 960 4GB und mehr oder weniger reduzierten Details @ 1440p gut zurecht. Ausnahmen bestätigen allerdings die Regel. In Siedler 7 kann ich höchstens die Hälfte der Pixel laufen lassen (DS) als wie noch mit der GTX 970. Mit der 970 ging grad noch UHD, mit der 960 ist bei 1440p und vollen Details schluss. Woher dieser circa 100% Einbruch kommt würd mich mal interessieren ? Der überlaufende Speicher ist es jedenfalls nicht...
 
Werde mich dann mal in die "habs-schon-immer-gesagt" Fraktion einreihen. Aber es gabs ja immer noch Neunmalkluge, die meinten 2 GB seinen auch heute völlig ausreichend und halbwegs sicher die nächsten Jahre. :freaky:
 
sind/waren aber meistens die, die ihre hardware schönreden wollen. eine typisch menschliche eigenschaft;)
 
Christi, es kommt drauf an, was man damit macht. Ich persönlich kaufe seit Jahren jede neue Nvidia CC Version. Eben so schnell wie ich meine Hände dran bekommen kann. Sobald Pascal kommt, werde ich auch schnell und heftig :D zuschlagen. 4 GB sind bei mir absolute untere Grenze, besser wären 12 GB.
 
Naja, diese ganzen VRAM-Diskussionen kamen ja erst mit dem Speicherskandal Anfang des Jahres so richtig hoch. Zu diesem Zeitpunkt gab es neben der GTX 960 eigentlich nur die R9 285 mit ebenfalls 2 GB oder die ältere 280X mit 3 GB. Klar kann heute jeder Depp die naheliegende Feststellung treffen, dass man an den 10 € für doppelten Speicher nicht unbedingt sparen sollte, aber damals war die Situation eben eine andere.
Bei der GTX 960 ging es aber - so wie ich das hier mitbekommen habe -, ohnehin vor allem um das 128-Bit-Interface, während in der VRAM-Diskussion immer gerne auf die 8-GB-Version der R9 290X verwiesen wurde.
 
Zurück
Oben