Test Speicher auf Grafikkarten: 3, 4, 6 & 8 GB VRAM im direkten Vergleich

Ich überlege mir schon seit ner Woche ob ich meine neue MSI GTX1060 Gaming X 6G für 310-320€ verkaufe (vielleicht gibt es hier Interessenten??) und mir eine 1070er hole. Ich wollte meinen UHD TV mit 4K füttern und denk mir dann auch, dass sich das nicht rentiert und ich vllt doch eine 1080er kaufe... Da stellt sich mir die Frage, lohnt sich eine 1080 für 4K oder ist die in dem Bereich nicht wirklich zukunftssicher?
 
Also ich muss hier auch mal kurz was Los werden so von wegen 3GB und 4GB reichen für FullHD. Also ich habe es hinbekommen die 8GB meiner GTX1070 mit Rise of TR@FullHD voll auszulasten bis zum Ruckeln weil nicht mehr genug Speicher vorhanden ist :D
 
pmkrefeld schrieb:
Aber.... Schon mal das "Der ideale Gaming-PC FAQ" gesehen? Satisfaction guaranteed.

Jetzt wo er die 1060 3GB nicht mehr als Empfehlung drin hat steh ich auch wieder vollkommen hinter dem Thread und verlinke ihn wieder guten Gewissens. :daumen:

MegaDriver schrieb:
Da stellt sich mir die Frage, lohnt sich eine 1080 für 4K oder ist die in dem Bereich nicht wirklich zukunftssicher?

Wenn du nativ auf 4K spielen willst und nicht von WQHD interpolieren willst reicht auch eine 1080 selbst für heutige Spiele nicht aus @60FPS. Von Zukunftssicherheit kann gar nicht gesprochen werden, wenn aktuelle Spiele nur auf 40-55 FPS laufen. 4K ist immer noch Zukunftsmusik, langsam setzt sich WQHD durch, aber bis wir 4K ordentlich befeuern können ohne eine Titan zu kaufen dauert es noch ein wenig. Ältere Titel hingegen kannst du auch mit Midrange Karten schon anständig auf 4K zocken.

http://www.tomshardware.de/nvidia-geforce-gtx-1080-pascal,testberichte-242111-6.html
https://www.computerbase.de/artikel...5244/seite-3#abschnitt_benchmarks_in_ultra_hd
 
Zuletzt bearbeitet:
Die 1060 3G wurde heute durch die RX470 4GiB und 8GiB ersetzt.
 
Daß zum Beispiel Spiele wie The Witcher 3, im Grunde beeindruckender aussehen als Mankind Divided und trotzdem mit weniger VRAM auskommen, um es auf Sehr hoch bzw. Ultra zu genießen, liegt denke ich auch an der Tatsache 3rd vs 1st Person.

Meine Vermutung ist, das in The Witcher 3 weniger Fläche im unmittelbaren Sichtbereich mit der höchsten Detailstufe gefüllt werden müssen, daß es auf den ersten Blick (und zweiten) vor Details nur so strotzt, sei es in Räumen oder in der freien Natur, ist zwar gegeben, aber ein großer Teil in der Ferne und kann grob gesagt mit Mip Mapping gelöst werden.

Bei DEMD habe ich den Eindruck daß in Innenlevels aber auch in Prag man natürlich immer von vielen geraden Flächen umgeben ist, Häuserschluchten, Anzeigetafeln, Peripherie etc. was mehr Auflösung in unmittelbarer Nähe erfordert...
 
Zuletzt bearbeitet:
Sahit schrieb:
Also ich muss hier auch mal kurz was Los werden so von wegen 3GB und 4GB reichen für FullHD. Also ich habe es hinbekommen die 8GB meiner GTX1070 mit Rise of TR@FullHD voll auszulasten bis zum Ruckeln weil nicht mehr genug Speicher vorhanden ist :D

Nein, hast du nicht. ;)

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-1070-test.55251/seite-4#diagramm-rise-of-the-tomb-raider-1920-1080_2

75fps sehen für mich nicht gerade nach Ruckeln aus...

Abgesehen davon behauptest du gerade das man für einen popeligen Tomp Rejder eine Titan mit 12GB Ram braucht :evillol:
 
Hätte niemals gedacht das die sichtbaren unterschiede in den Texturen so wahnsinnig gering sind.

Außer bei dem Kopfsteinpflaster, aber ansonsten sehe ich da nirgends Unterschiede.
 
pmkrefeld schrieb:
75fps sehen für mich nicht gerade nach Ruckeln aus...

Bevor man so etwas nicht gesehen hat, kann man es auch nicht beureilen. FPS sind eines, Ruckeln kann aber auch durch mieserable Frametimes entstehen, welche wiederum durch vollgestopften VRam entstehen.

@AnthroDrache
Zwischen Sehr Hoch und Ultra evtl. nicht, aber zwischen Hoch und Ultra.
 
pmkrefeld schrieb:
Nein, hast du nicht. ;)

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-1070-test.55251/seite-4#diagramm-rise-of-the-tomb-raider-1920-1080_2

75fps sehen für mich nicht gerade nach Ruckeln aus...

Abgesehen davon behauptest du gerade das man für einen popeligen Tomp Rejder eine Titan mit 12GB Ram braucht :evillol:

Stop! Wir reden doch gerade im einem Thread, in dem es ausführlich und ausdrücklich nicht um die FPS sondern um die Frametimes geht. Es kann Durchschnittlich 75 FPS haben und doch laggen wie Sau und das TombRaider nicht sehr sparsam mit Texturen umgeht ist nichts neues. Allerdings sollten sich die Frametimedrops im Rahmen halten.

Und es gibt manche Minecraft Mods, bei denen SLI Gespanne an ihre Grenzen kommen.
 
Zuletzt bearbeitet:
Warum nur Test's in FullHd?
Warum keine Karte mit HBM-speicher zum Vergleich?
Warum keine konkreten Angaben zur speicherauslastung während der testsequenz?
Die speicherauslastung bei nvidia und AMD ist definitiv nicht grundsätzlich gleich,das belegen einige Tests die im Netz zu finden sind!

Keine gute/ansatzweise vollständige Betrachtung des Themas
punkt!
 
pmkrefeld schrieb:
Nein, hast du nicht. ;)

75fps sehen für mich nicht gerade nach Ruckeln aus...

75FPS mit schlechtem Frametimes können dennoch ruckelig sein, siehe Test der 1060 3GB, die zwar in F1 2015 69FPS im Durchschnitt des Benchs erreicht, aber sich nicht gut anfühlt.

Vor allem können sich FPS-Werte und die noch wichtigeren Frame-Times je nach aktueller Szene stark ändern.
 
und was soll ich sagen..ich Gurke noch mit ne alten Grafikkarte mit 1GB rum :D..theoretisch dürfte ja garnix mehr laufen bei mir...meine Hardware ist wieder steinalt..obwohl ich erst vor nen Jahr Mainboard,Ram,Prozessor erneuert hatte...hab wohl doch aufs falsche Pferd gesetzt..aber egal...ich bleibe im Moment bei der Configuration...das bischen was ich mal spielen tue...

vorher hatte ich fast 8 Jahre nen Core2Duo 8400er System gehabt..und ne Radeon 4350 mit 512MB :D
 
Zuletzt bearbeitet:
@Brötchenesser:

Ich kenne Leute die sowas heute noch fahren.
Da frage ich mich ernsthaft ob die das ruckeln noch bemerken, oder ob die faustgroßen Pixel das schon verschleiern? xD
 
Wer WQHD, oder UWQHD in ultra zocken will, hat normalerweise eh ne gpu mit 8GB.

Aber es gibt halt Leute die Wissen, dass sie in bestimmten Spielen nur auf Mittel spielen werden und die juckt das nicht, da sie eh meist nur ihre 5 Lieblingsgames mit niedrigen Anforderungen zocken, die aber trotzdem Spaß machen.
Für die reichen auch 3GB, im Wissen, dass man zukünftig bei Top-Games nicht mehr mitspielt, bzw einfach in "nicht so schön".

Manche stört das aber nicht.

Jedem das Seine eben.

Wie man aber sieht, zieht der Speicherbedarf bei Top Titeln auch in Full HD weiter an, was ja aber eigentlich nicht überraschend kommt, da es seit Jahren diese Entwicklung gibt.

Denke auch nicht, dass das bei 8GB auf einmal aufhört.
 
Ich hätte mir noch ne Fury im Test gewünscht um zu schauen wie es da aussieht.
Prinzipiell sollte die nächste Grafikkarte 8 oder besser mehr GB haben, hätte nicht gedacht dass das so schnell dazu kommt.
 
Chismon schrieb:

Naja der Speicherausbau ist ja so ne Sache, ob 460 oder 1080, so blöd das ist, die beiden zu vergleichen, beide brauchen die gleiche Speichermenge für die Texturen. Wenn 8GB der 470 reichen, reichen auch 8GB der 1080. steht aber natürlich in keinem Verhältnis.
 
Ohne FPS Angabe ist der Test für mich witzlos. Was nützt es für mich zu wissen, dass mir der Ram ausgeht, wenn ich bei Ultra Einstellungen sowieso mit nur 30 FPS rumkrebse. Ausserdem, jemand, der sich nur eine 200,00 € Karte leisten kann oder will, geht wohl kaum davon aus neueste AAA Titel auf maximalen Details zu spielen.

So ein Test ist bestes Marketing für die Hersteller, die zufälligerweise eng mit den Spieleherstellern zusammenarbeiten, damit diese oft unnötige FPS-Killer einbauen.
 
pmkrefeld schrieb:
Die Einstellungen heißen nicht ohne Grund "Ultra" oder "Extrem".
Naja, heute fangen die Einstellungen bei Mittel an, dann kommt hoch und dann kommen diese "Ultra" oder "Extrem" Einstellungen. Das was früher "Mittel" war ist heute "Hoch" und das ist optisch die Einstellung die man haben sollte ohne starke optische Einschnitte sehen zu müssen. Eine Grafikkarte die mehr als 200€ kostet sollte aktuelle Spiele in diesen Einstellungen spielbar, sprich im Mittel über 40 Durchschnitts-FPS darstellen können.
Ob die dazu 2,4 oder 6GB Speicher braucht kann dem Kunden genauso egal sein, wie viele Shader oder welche Taktung die Karte hat.
Das Problem ist doch, dass die Hersteller mit diesen zig Versionen von Grafikkarten den Markt überschwemmen. Früher gab es drei eine günstige, eine normale und eine teure Grafikkarte. Von der mittleren hat man eben erwartet das diese die gerade erhältlichen Spiele in mittleren Einstellungen gut darstellen konnte. Wer mehr wollte, hat die teure gekaut, während die günstige dafür da war, dass man ein Bild ausgeben konnte.
Heute gibt es je Hersteller ~10 Grafikkarten Versionen und dann wird künstlich an den Karten herumgeschnitten um ja jeden teildefekten Chip und Zwischenstufe irgendwie anbieten zu können.
Dabei entsteht dieser Wahnsinn mit den Karten mit wenig Speicher und solchen Krüppeln wie die GTX970.
 
pupsi11 schrieb:
vielleicht versteht es ja auch der letzte, jetzt.

Ich melde mich mal als "der letzte", der es nicht versteht.

Von der Theorie her verstehe ich es, na klar. Wenn man unter FullHD mit der höchsten, für 4K gedachten Auflösung zocken will, frisst das - je nach Unvermögen der Programmierer - affig viel VRAM. Um dafür gewappnet zu sein, ist es gut, möglichst viel VRAM zu haben.

Aber es bleibt doch ein Luxusproblem. Für die Mehrheit der (Gelegenheits-)Zocker stehen Grafikkarten mit Preisen weit jenseits der 200 €, bei denen man die Auswahl zwischen 3, 4, 6 oder 8 GB RAM hat, doch gar nicht zur Disposition. So Leute hatten bislang die gute alte GTX750TI in ihrem Gehäuse. Und solchen Leuten nun beim Neukauf zu empfehlen:

Auch bei günstigeren Grafikkarten sollte nicht am Speicher gespart werden. Modelle mit 2.048 MB, wie es sie zum Beispiel von der neuen Radeon RX 460 gibt, sollten unbedingt gemieden und stattdessen der doppelte Speicher gekauft werden. Natürlich geben sich typische Spiele für solch eine Karte oft auch mit zwei Gigabyte zufrieden. Doch bleiben solche Modelle gewöhnlich mehrere Jahre in einem Rechner und hält das aktuelle Tempo an, währt die Freude an der Grafikkarte mit 2 GB VRAM nicht lange.

ist doch in meinen Augen unsinnig und sollte zumindest überdacht werden.

Eine RX460-2GB für um die 110 € ist ein guter Kauf. Eine RX460-4GB für typischerweise knapp 140 bis 180 € ist meiner Meinung nach ein eher schlechter Kauf. Fürs gleiche Geld hat die "Einsteiger"-Klientel doch von der gleich teueren aber schnelleren GTX950 mehr, auch bei den hier getesteten, schlecht programmierten Titeln.

Im krassesten Fall, Mirror's Edge, hat man mit der Verdoppelung des VRAMs bei der RX460 unter FullHD einen ordentlichen Boost von 15,2 fps auf 27,3 fps. Spielbar ist das beides nicht, so dass man die Grafikeinstellungen ohnehin weiter runterschrauben muss. Da macht es dann den Kohl auch nicht fett, auch die Texture-Einstellungen runterzusetzen, so dass dann zwischen 2 und 4 GB bei der RX460 kein Unterschied mehr besteht.

Die Rohleistung der RX460 ist so gering, dass die Speicherverdoppelung, die man bei einer ASUS ROG Strix Radeon RX 460 OC, STRIX-RX460-O4G-GAMING, 4GB GDDR5, DVI, HDMI, DisplayPort (90YV09L3-M0NA00) ab € 159,54 hat, für den Spieler viel weniger bringt, als die Leistungssteigerung auf eine 2GB-Karte wie der ähnlich teuren ASUS STRIX-R9380-DC2OC-2GD5-GAMING, Radeon R9 380, 2GB GDDR5, 2x DVI, HDMI, DisplayPort (90YV08D0-M0NA00) ab € 164,95. In dem Bereich muss man sich im Zweifel für Leistung und gegen (oft nicht mal nutzbaren) VRAM entscheiden.
 
Zurück
Oben