Test Speicher auf Grafikkarten: 3, 4, 6 & 8 GB VRAM im direkten Vergleich

Ich scheine da nicht so empfindlich zu sein. In FullHD HD komme ich mich 2 GB immerfort sehr gut zurecht.
 
Schön, dass dieser Testberichte mal wieder gemacht wurde. Das Ergebnis ist auch durchaus einleuchtend. Auch wenn ich es bisher nicht ganu si gesehen habe - das lag wihl aber auch dafan, dass ich in solchen Einstellungen nicht spiele / nicht spielen kann. Danke dafür.

Aber warum kann so ein Test nicht einfach mal vernünftig durchgeführt werden? Zwei Punkte hinsichtlich ordentlicher Testmethodik wurden missachtet:

1. Es wurden mehr als nur eine Variable verändert. Es soll nur der Einfluss der Speichermenge betrachtet werden. Dann kommen aber bei jeder Paarung zwei unterschiedliche Grafikkarten mit unterschiedlichen Taktraten und unterschiedlichen Kühlern - dadurch unterschiedliches Boostverhalten etc. Zum Einsatz. Gerade bei der RX480 gibt es unterschiedliche RAM-Taktraten.

2. Wenn nur die GTX1060 und die RX480 als Test Kandidaten antreten - wieso wird dann plötzlich noch eine RX470 bei einem Spiel verwendet und die RX480 außen vor gelassen? Ergo wurde bei einigen Teiltests noch eine weitere Variable - nämlich die gesamte GPU - verändert.

Jeder Schüler und Student würde so einen Versuch links und rechts um die Ohren gehauen bekommen.

Auch bei günstigeren Grafikkarten sollte nicht am Speicher gespart werden. Modelle mit 2.048 MB, wie es sie zum Beispiel von der neuen Radeon RX 460 gibt, sollten unbedingt gemieden und stattdessen der doppelte Speicher gekauft werden. Natürlich geben sich typische Spiele für solch eine Karte oft auch mit zwei Gigabyte zufrieden. Doch bleiben solche Modelle gewöhnlich mehrere Jahre in einem Rechner und hält das aktuelle Tempo an, währt die Freude an der Grafikkarte mit 2 GB VRAM nicht lange.

In Kombination mit der Aussage im Video, dass man die 2GB-Grafikkarten meiden solle, finde ich diesen Absatz sehr undefiniert. Ja sogar schlichtweg falsch. Mit der Aussage wird wieder .Also verallgemeinert und das darf nicht gemacht werden. Anderes Einsatzgebiet der Karte und schon benötige ich keine 4GB VRAM mehr. Soll ich mir deswegen trotzdem die teurere Version kaufen? Und wenn jetzt das Argument kommt "es ging ja um die getesteten Spiele". Ich glaube kaum, dass eine RX460 Deus Ex in FullHD mit hohen öder höchsten Details überhaupt flüssig darstellen kann.
Oder müssen wir neuerdings alle Q7/X5/Escalade fahren und muss Kleinwagen meiden, weil man unbedingt den großen Kofferraum braucht - also angeblich...Ihr versteht schon?
 
@Über mir
Manche wollen es auch einfach nicht verstehen und ich persönlich finde, Wolfgang hat das sehr gut dargestellt. Wenn man über einen neuen GPU Einkauf nachdenkt, sollte man die 2GB Modelle(3G/4G) meiden. Einer vorhandenen Karte zaubert mein keinen neuen Speicher dran. Wer sich dann auch noch in der neuen Gen umschaut, der sollte auch ganz klar daraufhin gewiesen werden, dass es einen "RIESEN" Unterschied zwischen Rohleistung und VRAM Bestückung existiert. Klar kann man auch Details runterschrauben, aber theoretisch mit einer besseren Bestückung wäre mehr drin.
Um bei der Analogie Auto zu bleiben, kaufe mir ja keine 200PS Auto um dann Reifen draufzuschrauben, die nur bis 160 kmh zugelassen sind. Wenn jetzt nur 200 kmh auf der Autobahn zugelassen sind, kann man lieber zu einem Modell greifen, was 120PS hat und reifen bis 220 kmh. (Reifen stehen für VRAM, PS für GPU Power und die 200kmh für die FPS)
Man kann also besser zu einem anderen Modell greifen.

Es muss ganz deutlich gemacht werden, was Wolfgang tat, dass der VRAM die 480/1060 zurück hält. Jeder der sich dennoch die 1060 3G oder die 480 4G kauft, soll glücklich sein, doch nicht nachher irgendwo irgendetwas posten, ala mein Spiel ruckelt, hätte ich mal...

Ich würde jedem raten, das Produkt seiner Wahl immer mit der höchsten Speicher Ausstattung zukaufen. Wenn dies nicht möglich ist, sei es Geld oder Prinzip, kauft ,eine Leistungklasse drunter,das Top Speicher Modell. Wolfgang hat auch nur solche Modelle genutzt, bei denen es eine Unterschiedliche Bestückung gibt.

Wenn es nur eine Speicherausstattung gibt, ist es sowieso Spekulatius, ob die Graka mit mehr Speicher besser wäre. Ich für meinen Teil bin zufrieden mit meiner 950 2Gb, aber mir ist auch ganz klar bewusst, was sie kann und was nicht.
FIFA kann, Star Citizen nicht.

Und ein Kleine Anmerkung untendrunter, ohne eine Kaufberatung zu geben:
Ich verzichte lieber auf 10FPS, also statt 60 auf 50, und bekomme dafür ein bessere Bild. 470 8GB gegen 1060 3GB und 480 4GB. Denn das Bild sieht meist wirklich besser aus mit ,einer Stufe besseren ,Textur und das Erkaufe ich mir zwar mit weniger FPS, habe dafür aber akzeptabler Frametimes.

Und ich kann mich leider doch nicht zurückhalten, meiner Meinung nach ist im Segment um +\- 200€ die 470 8GB die beste Wahl, wenn es den aus der 14nm Serie kommen muss.
 
Zuletzt bearbeitet:
@ HerrSchue:

Zu den beiden Punkten:

1.
Ja sicherlich nicht optimal, aber CB hat auch nicht Zugang zu jeder beliebigen GPU ;) Außerdem ist die Frage, ob ein anderer GPU Takt den Test überhaupt verändern würde. Wie im Test angemerkt, geht es nicht um die absoluten FPS sondern um die Frametimes. Die sollten gleich sein, selbst wenn man die GPU etwas höher oder niedriger taktet oder?
Beim Speichertakt bin ich kein Experte, da aber auch die Fury mit dem schnelleren HBM aufgrund der 4GB Probleme bekommt, sollte der Taktunterschied zwischen der 4GB und der 8GB RX-480 hier wohl auch vernachlässigbar sein.

2.
"da die zwei Radeon RX 480 bereits zurück bei Sapphire waren. Stattdessen kommen dort die Sapphire Radeon RX 470 Nitro+ OC als Modell mit 8.192 MB und die Asus Radeon RX 470 Strix als Version mit 4.096 MB zum Einsatz."

Sicherlich ist das nicht der optimale Fall, aber im Test steht dazu folgendes:

"Die [RX 470] sind langsamer als die Radeon RX 480. Da es bei dem Test aber nicht um die klassische Performance geht und beide für Full HD ebenfalls genug Rohleistung aufweisen, ist das nicht von Relevanz."

Also aus meiner Sicht kein Grund, warum ein Schüler oder Student so etwas um die Ohren gehauen bekommen würde. Ich finde die Begründungen schlüssig und sehe daher auch keinen Grund, dass dadurch das Ergebnis des Tests verfälscht werden sollte.
 
Zuletzt bearbeitet:
Ap2000 schrieb:
Falsch.
1080p ist "full HD".
2K bezeichnet bei Filmen eine Auflösung von 2048 × 1536, bzw. deren Derivate, und bei PC Monitoren wird damit gängig 1440p bezeichnet.
Was aber trotzdem falsch ist und das weist du selber. 1920x 1080 ist nun mal 2K. Wer nicht rechnen kann sollte es lassen. UHD sind ja eigentlich auch schon 8K wird aber 4K genannt, was aber eigentlich völlig falsch ist. 1440p ist WQHD und das wäre eigentlich eher in Richtung 4K. Wie die Industrie es nennt ist mir dabei völlig egal.
 
Sehr schöner Test der wunderbar zeigt das VRAM-Verbrauch nichts mit Rohleistung oder Auflösung zu tun hat sondern Hauptsächlich an der Texturqualität hängt die aber kaum Rohleistung beansprucht.

Aber war auch wieder klar das in der Diskussion hier die Fanboys ihre VRAM-Krüppel aufs letzte verteidigen werden... die Unterschiede bei DeusEx sind einfach mal recht deutlich zu sehen, je niedriger die Textur-Stufe desto verwaschener sieht alles aus. Vor allem die Details an Hauswänden oder den Klamotten. Das ist auch der große Unterschied zu Witcher 3, was ich da so an Grafik bisher gesehen hab ist das vor allem Vegetation die keine großflächigen Texturen braucht oder wenns mal Holzplanken oder so gibt sind die auch eher verwaschen. Kein wunder dass das mit 2GB auskommt..

Ist das Spiel relevant? Das muss jeder für sich entscheiden. Für mich ist es der einzige relevante AAA Titel der letzten Zeit, die anderen interessieren mich einfach irgendwie nicht. Und ich wird ihn auf meinem VRAM-Krüppel nicht in voller Pracht spielen können... ist halt so. Ich muss mir das nicht schön reden das meine Fury X mit 4GB deutlich zu wenig Speicher hat, das war mir vorher klar das mit der Karte sowas passieren kann. Aber die Technik und auch die Kühllösung fand ich einfach interessant.

Aber als allgemeine Empfehlung kann man das so stehen lassen das man lieber zur Karte mit mehr Speicher greifen soll. Man weiß nie was noch kommt und wenn schon heute Spiele existieren die limitieren wird das in Zukunft sicher noch mehr werden.
 
Chismon schrieb:
Also wenn Du schon vergleichst, dann solltest Du fairerweise in beiden Fällen den Vollausbau oder die beschnittenen Varianten nehmen (ergo, HD 7950 (3 GB) vs. GTX 670 (2GB) oder GTX 680 (2 GB) vs. 7970 (3GB)) ;), zumal eine HD 7970 gut 200 Dollar (plus Steuern) mehr gekostet hat als damals meine GTX 670 OC, in etwa also in der Preisregion einer GTX 680 oder einer GTX 670 mit 4 GB lag (im Nachhinein somit nicht unbedingt das bessere Preis-Leistungs-Verhältnis hatte und selbst die HD 7950 ca. 50 Dollar (plus Steuern) mehr gekostet hätte (zugegeben aber wohl die beste GPU-Wahl damals im Nachhinein gewesen wäre).

Unter Berücksichtigung des exorbitanten Speicheraufpreises damals (als die Hersteller es sich "vergolden" ließen), hätte sich auch im Nachhinein m.E. die größere Version definitiv nicht gelohnt, ähnlich auch noch bei der GTX 770 Nachfolge-Karte) im Gegensatz zu heute wo die Aufpreise für mehr Speicher weitaus moderater sind (die Hersteller es sich nur "versilbern" lassen).

Des Weiteren ist die ganze Chose bedarfsgesteuert und zudem auch noch abhängig vom Entwickler, denn alle Blizzard Spiele laufen mit nVidia Karten i.d.R. besser als mit den AMD Pendants und bis heute bekomme ich dort bei Höchsteinstellungen unter Full-HD/1200p meine 60 fps mit meiner 2 GB GTX 670 OC.

Ein Freund von mir hat sich eine Ur-Titan damals teuer gleistet und was macht er damit (?) ... hauptsächlich Blizzard Spiele spielen, also auch nicht unbedingt ein lohnender/notwendiger/gut dimensionierter Kauf, seine vorherige HD 7970 hätte es fast genauso gut (ohne groß spürbaren Unterschied) getan.

Von "lange verhungert" kann bei der GTX 670 (OC) also gar keine Rede sein, denn so lange so gut werden die vergleichbaren Nachfolge-Kepler/-Maxwell/-Pascal-GPU-Modelle sich jetzt nun nicht mehr halten ;).

Natürlich geht das auch irgendwann zu Neige - auch wenn ressourcen-schonende Titel wie Forza Apex, Battlefield 1 oder The Witcher 3 einen länger Freude an einer älteren GPU haben lassen - und es kommt eben darauf an, was man spielt und ob man immer das neuste vom neuen haben muss (glücklicherweise bei mir nie der Fall gewesen, selber Schuld wenn man so ungeduldig ist und für ein teilfertiges Spiel noch Vollpreis dafür hinblättert) und einige der AAA Franchises (GTA, Fallout, Assassin's Creed, und Anno Reihe, um nur einige zu nennen) interessieren mich auch nur mäßig bis gar nicht :).

Bei mir diktiert momentan eigentlich nur Star Citizen ein Aufrüsten in nicht allzu weit entfernter Zukunft, und vielleicht noch die Rise of the Tomb Raider - Anniversary Edition, wenn diese dann irgendwann im Ausverkauf günstig zu haben ist, oder Mass Effect (4) - Andromeda (evt. auch noch ein Quake (5) - Champions).

Die neuen Ableger der Mirror's Edge und Deus Ex Reihen finde ich bisher eher enttäuschend, da muss schon mehr kommen, wenn man nur um aktuelle, größtenteils mäßig umgesetzte Computerspiele flüssig spielen zu können, mehrere 100 Euros für eine neue GPU hinblättern soll (sonst lohnt es zumindest für mich nicht). Das gilt für die Spiele-Entwickler als auch für die Chip-Hersteller/-Architekturen.

Das einzige was dem "Speicher-Wahn" Einhalt gebieten kann, ist ein Boycott durchwachsen bis mies programmierter Spiele und wer ist hier bitteschön so konsequent? Alles andere wird nichts bringen und die Entwickler können das ohne "Effizienzkultur" immer weiter ausarten lassen und die GPU Hersteller freut es natürlich insgeheim wenn so die Aufrüstung frühzeitiger forciert wird bzw. die Karten werden schon darauf ausgelegt (bei nVidia). Die meisten greifen da immer noch zu, auch wenn es dann heißt die Details im Spiel zu reduzieren und mit den Reglern, zu "jonglieren".

Wenn ich vergleiche dann schon im gleichen preisbereich. Die GTX680 war immer spürbar teurer als die GTX670 und 7970. 7970 oc Modelle kosteten soviel wie die GTX670 oc.

4gb GTX 680 war praktisch preislich komplett uninteressant.

https://www.computerbase.de/artikel/grafikkarten/amd-radeon-hd-7970-ghz-edition-test.1809/seite-13
 
omg hier ist ja die hölle los...

obwohl eigentlich nichts neues
 
Tramizu schrieb:
Was aber trotzdem falsch ist und das weist du selber. 1920x 1080 ist nun mal 2K. Wer nicht rechnen kann sollte es lassen. UHD sind ja eigentlich auch schon 8K wird aber 4K genannt, was aber eigentlich völlig falsch ist. 1440p ist WQHD und das wäre eigentlich eher in Richtung 4K. Wie die Industrie es nennt ist mir dabei völlig egal.

Wat :freak:
 
BookerDeWitt schrieb:
Im Vergleich zwischen Custom-Karten ist eine 950 im Leistungsrating sage und schreibe 10% vorne. Also ein Unterschied von beispielhaft 30 zu 33 FPS (sagenhaft!).
Du vergleichst jetzt aber gerade keine "custom" GTX950, sondern das "Referenz-Modell" ohne extra Stromstecker und mit 1.024 Mhz Kerntakt. Da die Karte praktisch keine Rolle spielt, hatte sie mMn im Vergleichstest nichts verloren. Sone typische GTX950 mit 20% mehr Kern- und 30% mehr Boosttakt ist dann wieder locker mehr als 20% schneller als die "Referenz", die im Test aufgeführte Asus ist eher ein langsameres Modell. Der Geschwindigkeitsvorteil von im Mittel gut 30% macht bei Werten um 24 fps bei der RX460 und dann über 30 fps bei der GTX950 den Unterschied zwischen spielbar und unspielbar aus.

Davon ab: ich will da kein AMD/Nvidia-Ding draus machen und hatte bewußt als Kontrapart zur Asus Srtix RX 460-4GB die 5 € teurere Asus Strix R9 380 2GB angeführt, die dann gleich ca. 50% schneller ist.

BookerDeWitt schrieb:
Wenn man wenigstens minimal auf gute Grafik achtet lassen sich in mehreren Spielen sicherlich deutlich glattere Frametimes mit der 460 erreichen (genau wie wir in diesem Test mit 1060 3GB vs. 470 4GB gesehen haben).

Ich fürchte, Du gehörst zu den Leuten, die so etwas im kollektiven VRAM-Wahn tatsächlich ernst meinen. Mit wenigen Ausnahmen erreicht die RX 460 in AAA-Titeln auf FullHD nirgends glatte Frametimes und wenn handelt es sich um eine harmonisch verlaufende Diashow. Guck Dir mal Rise of the Tomb Raider an: Da hat die RX460-2GB mit minimal 10 und durchschnittlich 28 fps die "deutlich glatteren Frametimes" als die RX460-4GB mit minimal 9 und durchschnittlich 33,6 fps.

Und das hier gerne und auch von Dir gebrauchte Unwort


solltest Du Dir schon gerne verkneifen. Sicherlich gilt es in manchen Kreisen schick, Behinderte als Krüppel zu verspotten und zu diskriminieren. Der Speicherausbau einer Grafikkarte hat aber gewiss nichts mit einer Behinderung am Hut.
 
Ultra Wide - UXGA + Ultra + 100 FPS, wenn das nicht geht, dann spiel ich das Spiel nicht!
 
Zuckerwatte schrieb:
Natürlich ist es unschön, dass die Portierungen nicht so gut für den PC programmiert werden.

Was hat man für eine Wahl?

a) immer rufen " scheiße programmiert" und sich verweigern. Wobei man sich da ziemlich vielen neuen Spielen verweigert weil sie suboptimal programmiert sind?

Ja, a) wäre richtig, denn dann würden die Publisher/Spieleentwickler reagieren, wenn sie großteils auf ihren Spielen sitzen bleiben, aber da die Spieler fast alles mitmachen (siehe Steam zb.), können die machen wozu sie auch immer lustig sind.
 
@jesterfox: VRAM bedarf hat sicherlich mit der Auflösung zu tun! Was Wolfang auch gesagt hat...
Je höher desto mehr.

Man sollte aber auch daran denken, das immer was limitiert: gpu, cpu oder vram
Eventuell (!) läuft ein game doch flüssiger mit ner furx x (4 gb) als mit ner rx 470 (8 gb).
Weil die gpu abstinkt (fps mäßig) und nicht der speicher.

Aber von der kaufempfehlung stimm ich voll zu!
 
Sehr guter Punkt! Ich finde das Wort Speicherkrüppel sollte hier im Forum verboten werden. Es stört mich unheimlich wenn dieser Ausdruck verwendet wird.
Gibt halt genug Leute, die haben einfach nicht mehr Geld und sind stolz wie Oskar, wenn Ihre 2GB GPU das Spiel noch darstellen kann. Verwaschen oder auch nicht. Vollkommen egal. Hat halt nicht jeder reiche Eltern.
 
Emi81 schrieb:
@jesterfox: VRAM bedarf hat sicherlich mit der Auflösung zu tun! Was Wolfang auch gesagt hat...
Je höher desto mehr.

Ja, schon. Aber die Texturen kosten deutlich mehr Platz. FullHD hat ca. 2 MegaPixel. Das sind bei 32Bit Farbtiefe 8MB für einen Framebuffer. Mal 3 bei Tripple Buffering sinds grad mal 24MB. Bei 4k geht das auf das vierfache, also 96MB. Nicht wirklich viel, oder? Zusammen mit AA wird's zwar deutlich mehr, aber höhere AA Stufen sind bei hoher Auflösung eigentlich nicht mehr notwendig (und kosten tatsächlich auch entsprechend Rohleistung).
 
oldmanhunting schrieb:
Gibt halt genug Leute, die haben einfach nicht mehr Geld und sind stolz wie Oskar, wenn Ihre 2GB GPU das Spiel noch darstellen kann. Verwaschen oder auch nicht. Vollkommen egal. Hat halt nicht jeder reiche Eltern.

So ist es! & das Wort Speicher..... geht auch mir extrem gegen den strich. CB danke für den Test:)

LG
 
@jesterfox:
Multiplizieren kann jeder 😊
Für 4k würden theoretisch 33 MEGABYTE reichen. Aber es wird vieles mehr (genau kann ich es nicht sagen)
Aber Zitat Wolfgang:

Ab vier Gigabyte machen wiederum selbst die Hyper-Details keine Probleme mehr in Full HD. Wer allerdings 2.560 × 1.440 nutzen will, braucht mindestens 6.144 MB.

Macht gleich mal 2 gb mehr für 2.5k
 
Ganz ehrlich, ein eher enttäuschender Artikel, der hauptsächlich auf "Fürchtet euch, ihr Menschen mit wenig Vram, das Ende ist nah!" fußend.

Erst einmal muss ich aber natürlich loben das man die Mühe gemacht auf Speicherproblematik einzugehen und sie zu durchleuchten. Ja, ich würde auch den Fazit folgen das es ein "Zu viel Speicher nicht gibt" gibt... aber was da teils an falschen Tatsachen dargebracht und was als unspielbare Zustände hervorgehoben wird lässt mich eher kopfschüttelnd.

Ich will für meine Kritik folgende Punkte ansprechen:

1. Die Lüge(Anders kann ich es nicht formulieren) das GTX 960/R9 380 jeweils in der kleinen 2GB Version in ihrer Veröffentlichungszeit fürs Zocken auf Max. reichten:

Ihr habt selber den Beitrag Wenn GTX 960 und R9 380 schon heute der VRAM ausgeht veröffentlicht, zwar erst im Dezember 2015, aber jetzt kommt es: Alle dort getesteten Spiele sind VOR den Grafikarten herausgekommen.
Das Ergebnis vom Artikel war das 2GB absolut NICHT ausreichen... und das anscheinend vor gut zehn Monaten auch die Frametimebewertung nicht ganz so ernst genommen wurde wie heute... in Relation zu den Beurteilung des heutigen Artikel gesetzt, war eigentlich damals auch teils mit 4Gb an Zocken nicht denkbar.

Wieso ich das jetzt A, überhaupt anspreche und B, auch an erster Stelle breit trete?

Weil hier dem Leser un-,/absichtlich eine Vergangenheit eingeredet wird, die es so niemals gab.
Eine Welt in der die kleine Midrangekarten auch für jeden Zocker reicht... und heute die Raffzähne uns doch nur alle ausnehmen wollen. NEIN, auch damals waren GTX960/R9 380 reine Kompromisskarten, und wer meinte sich 2 GB sparen zu können hat sofort die Quittung bekommen. Auf diesem Trugschluss basiert aber auch eine der Grundthesen, “Früher war mehr Lametta“, des jetzige Artikel.

2. Der Götze FPS ist tot! Lang lebe unser neuer Gott Frametime!

Es ist zu begrüßen, das man sich vom krampfhaften auf die FPS, die ein Karte raus hauen kann, starren lösen will. Leider ist das starren auf die Frametime nicht minder unnütz.
Der Punkt, das vor nicht einmal einen Jahr anscheinend die Framekurve nicht so scharf gewertet wurde habe ich schon angesprochen.
Außerdem muss auch die Frage gestellt werden: Was sagen den die allmächtige Kurve überhaupt aus?

3. Was mich zum letzten Punkt bringt: Großes Theater um nicht ganz so große und vorallem erwartbare Probleme:

Die Kurven steht da, und ihre Richtigkeit zweifel ich nicht an. Aber wie man sie bewerten kann ist eine völlig andere Sache.
Ich muss einfach wieder auf eine andere Seite, Tomshardware, verweisen, die das sehr elegant gelöst hat in den sie sich auch die Mühe gemacht hat die Kurve aufzubereiten und wie sie den jetzt zu deuten ist (Stichwort Ruckelindex).
Wenn ich, dreister weise, versuche deren Skalen mit den Kurven hier auf CB in Einklang zu bringen komme ich zu den Ergebnis das bei den Testspielen hier doch noch immer mehr geht als von euch dargestellt. Beispiel Tomb Raider das mit jeglicher Karte auch in Ultra noch gut läuft.
Oder eben auch bei diesem “bösen Speicherfresser“ Deus Ex, in den ebenfalls die beide „kleinen“ Ausführungen beider Hersteller also auch die 6GB-Version Nvidias für Lächerlichkeiten abgestraft werden.
Ja, da lehne ich mich vielleicht etwas zu stark aus den Fenster, aber ich behaupte das man mit der RX 470 4GB auch noch Ultra gut spielen kann! Ein Ausbruch der gerade mal haarscharf die 50ms überschreitet ist für mich kein Stottern. Selbst dieser Mikroruckler dürften nur mit geübten Auge oder mit zeitgleichen ablaufenden Vergleich aufspürbar sein.
Wie man dadurch auf alarmierende Zustände kommt ist mir Schleierhaft... eigentlich müsste das Fazit genau anderes herum sein: “Budgetkarten reichen endlich wirklich für gute Spielbarkeit bei guten Texturen.“



Das war es jetzt mal von meiner Seite...
 
Zuletzt bearbeitet:
Also ich lasse mich von diesem Vram-Hersteller "Artikel" nicht beeinflussen, meine GTX1060 3GB ist bereits bestellt.
All die Steam-Nutzer mit einem und zwei GB Vram, das sind übrigens die meisten Nutzer dort, haben scheinbar mehr Ahnung was sie benötigen als so mancher Pseudo-Profi.
 
Zurück
Oben