Test Speicher auf Grafikkarten: 3, 4, 6 & 8 GB VRAM im direkten Vergleich

gerzerk schrieb:
Ohne FPS Angabe ist der Test für mich witzlos. Was nützt es für mich zu wissen, dass mir der Ram ausgeht, wenn ich bei Ultra Einstellungen sowieso mit nur 30 FPS rumkrebse.

Dann rechne doch einfach 1000/t[ms] und dann hast du deinen fps? Bsp: 1000/16ms (Geschätzer Durchschnitt bei BO3) = 62,5fps.

Edit:
So btw: Frame per Seconds haben null aussage, es können 100frames mit 8ms Frametime kommen und dann reicht eins, das 200ms braucht und es stottert. Habe aber trotzdem 101fps :).
 
Zuletzt bearbeitet:
kachiri schrieb:
Die Frage ist doch:
Sind die GPU-Hersteller (insbesondere NV) blöd - oder sind die Programmierer blöd, weil die nicht mehr wissen, was Kompression bedeutet. Da würde ich auch mal ansetzen. Zumal hier im Test halt wirklich die VRAM-Killer getestet worden sind, ohne das diese Spiele dann am Ende auch sonderlich hübsch aussehen, sondern einfach nur verschwenderisch sind...

Eigentlich kann man nicht nur 3-4 VRAM-Killer nehmen, und sagen, dass ist so und so. Sondern man müsste für einen AUSSAGEKRÄFTIGEN Test, wirklich einen Querschnitt aktueller Titel nehmen.

Das ist quatsch. Es ist lange bekannt wie der unifed Speicher der Konsolen funktioniert. Die PC-Ports schieben nun soviel in den VRAM wie möglich. Dabei sinkt sogar der RAM Bedarf je größer der VRAM der Grafikkarte ist! Die Spielentwickler optimieren Ihre Engines für die Konsole und nicht für den PC.

RoTR%20VRAM%20fix.jpg

RoTR%20RAM%20Fix.jpg


Warum tun nun alle überrascht und sind sauer auf die Konsolenports? Hallo, diese Dinger kosten 300-400€. Und da ist CPU, GPU, RAM, HDD drin. Tja Schade, wenn das eigene Premiumprodukt doch nicht premium ist? Und man nicht einmal genügen VRAM hat um mit so einer krüppeligen Konsole gleichzuziehen. Achja, Moment man hatte ja die Wahl:

7970 3GB VRAM seit 2011 vs GTX670 mit 2GB schon lange verhungert.
290 4GB VRAM seit 2013 vs GTX780 mit 3GB.
390 8GB VRAM seit 2015 vs GTX970 mit 3,5GB.

Titan und Sonderkarten mit doppeltem Speicherausbau, welcher extrem teuer ist mal außen vor.

Vielleicht beim nächsten mal einfach zum technisch besseren Produkt in der gleichen Preisklasse greifen? Frei nach dem Motto. Böse böse GTX970. Kaufe ich lieber eine noch teurere GTX980. Da habt ihr es Ihnen aber gezeigt!
 
Zuletzt bearbeitet:
gerzerk schrieb:
Ohne FPS Angabe ist der Test für mich witzlos. Was nützt es für mich zu wissen, dass mir der Ram ausgeht, wenn ich bei Ultra Einstellungen sowieso mit nur 30 FPS rumkrebse. Ausserdem, jemand, der sich nur eine 200,00 € Karte leisten kann oder will, geht wohl kaum davon aus neueste AAA Titel auf maximalen Details zu spielen.

Texturen kosten keine Leistung, sondern nir VRam verbessern die Grafik am deutlichsten! Wenn du meinst, dass die Probleme bei ~30FPS auftauchen, dann lies dir doch den Test zur 1060 3GB durch. Dort siehst du, dass man in FullHD selbst bei 60+FPS keine gute Spielbarkeit aufgrund VRam-Mangel haben kann. Es ergibt sich einfach, dass bei einem Neukauf der Geiz beim Speicher einfach nur dumm ist!
 
Wahnsinn...

CB hat bewiesen, dass Spiele für den PC immer schlecht programmiert/portiert werden und die Hälfte der Leute hier ist am applaudieren. Die Entwickler nutzen euren dollen 8 Gigabyte großen Grafikspeicher, um immer sorgloser mit den Ressourcen umzugehen und die Leute finden es toll. :freak:

Für die Entwickler ist das praktisch. Kann demnächst der Praktikant die Optimierung der Engine übernehmen. Ein Team aus Profis kostet ja Geld. Und offensichtlich finden die meisten hier ja auch nicht die Grafik wichtig sonder eine Grafikkarte mit vielen vielen Gigabytes im Rechnern zu haben. Ansonsten würden die Leute über Deus Ex nicht solche Sachen wie "Guckt mal, ich habe schon immer gesagt, wie voll toll viel Grafikspeicher ist." sagen, sonder viel mehr sowas wie "Das Spiel sieht aus als wär es 3 oder 4 Jahre alt und ist zudem schlecht programmiert."

Vorbilder müssen Spiele wie der Witcher 3 oder Frostbite Engine sein. Über EA kann man sagen was man will, aber programmieren können die noch. Frostbite läuft auch noch auf dem alten Toaster in meiner Küche und skaliert von da wunderbar auf alle möglichen Rechner hoch. Battlefield 1 sieht gut aus UND läuft auf jeder Kartoffel.

Aber nein, die Leute kaufen sich demnächst eine Karte mit 16 GB HBMultrasuperfast und freuen sich beim nächste Spiel auf dem graphischen Niveau von 2013 nicht so eine blöde GTX1080 zu haben...
 
Juri-Bär schrieb:
Eine RX460-2GB für um die 110 € ist ein guter Kauf. Eine RX460-4GB für typischerweise knapp 140 bis 180 € ist meiner Meinung nach ein eher schlechter Kauf. Fürs gleiche Geld hat die "Einsteiger"-Klientel doch von der gleich teueren aber schnelleren GTX950 mehr, auch bei den hier getesteten, schlecht programmierten Titeln.

Im krassesten Fall, Mirror's Edge, hat man mit der Verdoppelung des VRAMs bei der RX460 unter FullHD einen ordentlichen Boost von 15,2 fps auf 27,3 fps. Spielbar ist das beides nicht,

Sehe ich anders. Es gibt genug Videos auf Youtube die belegen, dass viele Zocker mit 20-30 FPS noch zufrieden sind. Nicht jeder kennt Fraps oder Afterburner um sich seine Frames anzeigen zu lassen. Und so lange es halbwegs spielbar ist, wird es auch gespielt.

Außerdem hält sich ja immer noch hartnäckig das Gerücht im Netzt, das Auge könnte eh nur 24 Bilder in der Sekunde wahrnehmen. Warum also mehr FPS.

Ich denke die Anzahl der Menschen, die den Unterschied zwischen 24 und 100 FPS nicht erkennen oder erkennen wollen ist erschreckend hoch. Sobald die Frames aber unter die 24FPS fallen merken selbst diese, dass da was nicht stimmt.
 
gerzerk schrieb:
Ausserdem, jemand, der sich nur eine 200,00 € Karte leisten kann oder will, geht wohl kaum davon aus neueste AAA Titel auf maximalen Details zu spielen.

Das stimmt.
Und für kleinere, einfachere games reichen auch die günstigen Karten.
 
Juri-Bär schrieb:
Eine RX460-2GB für um die 110 € ist ein guter Kauf. Eine RX460-4GB für typischerweise knapp 140 bis 180 € ist meiner Meinung nach ein eher schlechter Kauf. Fürs gleiche Geld hat die "Einsteiger"-Klientel doch von der gleich teueren aber schnelleren GTX950 mehr, auch bei den hier getesteten, schlecht programmierten Titeln.
Im krassesten Fall, Mirror's Edge, hat man mit der Verdoppelung des VRAMs bei der RX460 unter FullHD einen ordentlichen Boost von 15,2 fps auf 27,3 fps. Spielbar ist das beides nicht, so dass man die Grafikeinstellungen ohnehin weiter runterschrauben muss. Da macht es dann den Kohl auch nicht fett, auch die Texture-Einstellungen runterzusetzen, so dass dann zwischen 2 und 4 GB bei der RX460 kein Unterschied mehr besteht.

Diese Idee halte ich für bedenklich. Je nachdem, welche Spiele man spielt (CS:GO und Dota mal außen vor) sind stabile Frametimes bei gleichzeitig guter Optik wichtiger als das letzte Quäntchen mehr GPU-Rohleistung. Bei der Entscheidung zwischen 460 4GB und 950 2GB steht die 460 deutlich besser da, da sie bessere Bildqualität/glattere Frametimes ermöglicht.

Nur als Beispiel, was wird dir eher auffallen?

- Der Unterschied zwischen 60FPS und 66FPS (wenn überhaupt)

- eine Karte, die, sobald ich die schönen Texturen haben möchte alle zwei Sekunden merklich stockt obwohl ich doch 60+FPS habe? Glaubst du mir nicht? Sieh dir mal das hier an. Eine 1060 3GB erreicht in einem Game mit normalen Anforderungen im Durchschnitt 70FPS, fühlt sich aber schlecht spielbar an, deutlich schlechter, als Modelle mit mehr VRam und weniger "Rohleistung" (470 4GB). Natürlich kannst du Texturen zurückdrehen, nur kosten die keine Leistung und bringen deutlich mehr Bildqualität (wie du in dem Speichertest hoffentlich gelesen hast bevor du hier postest?). Bei einem vorhandenen Modell ist Texturen herunterdrehen natürlich die beste Lösung, nur bei einem Neukauf ist der Griff zu einem Modell, dass dies nötiger macht gegenüber anderen vergleichbaren Karten reiner Schwachsinn!

Juri-Bär schrieb:
Die Rohleistung der RX460 ist so gering, dass die Speicherverdoppelung, die man bei einer ASUS ROG Strix Radeon RX 460 OC, STRIX-RX460-O4G-GAMING, 4GB GDDR5, DVI, HDMI, DisplayPort (90YV09L3-M0NA00) ab € 159,54 hat, für den Spieler viel weniger bringt, als die Leistungssteigerung auf eine 2GB-Karte wie der ähnlich teuren ASUS STRIX-R9380-DC2OC-2GD5-GAMING, Radeon R9 380, 2GB GDDR5, 2x DVI, HDMI, DisplayPort (90YV08D0-M0NA00) ab € 164,95. In dem Bereich muss man sich im Zweifel für Leistung und gegen (oft nicht mal nutzbaren) VRAM entscheiden.

Du betrachtest bei dieser Aussage nur die Balkenlänge und nicht das wirkliche Spielgefühl, in Form von Frametimes. Des weiteren kann man mit Balkenlänge auch nicht den Faktor "bessere Bildqualität durch VRam" darstellen. Wie oben hoffentlich bereits deutlich klargestellt sollte man für gute Frametimes eben bereit sein die letzten Quäntchen GPU-Leistung hinter sich zu lassen und auch den VRam die Aufmerksamkeit schenken.

Inb4 Rohleistung nicht ausreichend für 4GB:

Es gibt keinen Zusammenhang zwischen beidem Faktoren. Wenn man ein Game nimmt und sowohl auf einer 950 2GB und einer 460 4GB so einstellt, dass beide auf 60FPS laufen, so kann man auf der 460 immer die Texturen höher aufdrehen und bessere Bildqualität/ruhigere Frametimes erzielen, als auf der 950, was ein deutlicher Mehrwert ist. Umgekehrt wiederum werden max. 10% GPU-Mehrleistung meistens kaum ausreichen um nur einen Effekt höher zu schrauben, geschweige denn eine deutliche Bildverbesserung zu erzielen.
 
D708 schrieb:
... Speicherausbau ist ja so ne Sache, ob 460 oder 1080, so blöd das ist, die beiden zu vergleichen, beide brauchen die gleiche Speichermenge für die Texturen. Wenn 8GB der 470 reichen, reichen auch 8GB der 1080. steht aber natürlich in keinem Verhältnis.

Das ist wahr, aber es wird kaum ein normaler Mensch darauf kommen aktuelle Spieltitel mit einer RX 460 (selbst mit 4 GB Speicherausbau) auf WQHD zu spielen, weil die Karte klassen- und preistechnisch in einer ganz anderen Liga angesiedelt ist, als eine GTX 1080 (Einsteiger-/MOBA-Klasse vs. Ober-/Performanceklasse). Selbst bei einer RX 470 Mittelklasse-GPU mit gleicher Speichergröße hinkt der Vergleich, denn diese war von vorneherein nur für Full-HD angedacht, kann aber ordentlich übertaktet auf RX 480 Niveau gebracht werden und erlaubt somit gelegentliche Ausflüge in WQHD (trotzdem meist nicht bei höchster Detailpracht).

Die Ober-/Performanceklasse-Karten (GTX 1070/1080) sehe ich eigentlich derzeit für den WQHD Bereich zuständig (und grenzen sich ja dementsprechend preislich auch noch relativ deutlich ab) und da sind 8GB schon jetzt ziemlich knausrig bemessen für Maximal-Details, in 2 Jahren wird da wohl auch Schluss mit lustig sein (Abstriche in Kauf genommen werden müssen und die höchsten Details nicht mehr machbar sein), dieses wäre aber mit mindestens 10 GB (vermutlich die Speicherausbaugröße der GTX 1080 Ti), oder besser gleich 12 GB, möglicherweise nicht der Fall.

Gemäß nVidia Speicherpolitik könnten dann die Volta Ober-/Performanceklasse Karten (GTX 1170/1180) mit 10 GB GDDR5X kommen (mit 12 GB rechne ich da eher nicht), aber vielleicht auch mit 8 GB HBM2. 2017 könnte ein sehr spannendes Jahr werden in Bezug auf CPUs (durch die Zen Einführung) und natürlich GPUs mit Vega und vermutlich Volta GPUs (für mich sind sowohl Polaris als auch Pascal GPUs relativ unspektakulär und wenig beeindruckend (etwas unrund) und ich hoffe, das wird mit Vega und Volta anders werden) ...

... ich hoffe Ende des ersten Halbjahres liegen die "Karten" dann zumindest grob abschätzbar auf dem Tisch ;). Um 5 Jahre Laufzeit wird meine GPU wohl nicht herumkommen (Star Citizen wird wohl noch warten müssen), es sei denn sie gibt den Geist auf (was ich nicht hoffe).
 
SavageSkull schrieb:
Naja, heute fangen die Einstellungen bei Mittel an, dann kommt hoch und dann kommen diese "Ultra" oder "Extrem" Einstellungen. Das was früher "Mittel" war ist heute "Hoch" und das ist optisch die Einstellung die man haben sollte ohne starke optische Einschnitte sehen zu müssen. Eine Grafikkarte die mehr als 200€ kostet sollte aktuelle Spiele in diesen Einstellungen spielbar, sprich im Mittel über 40 Durchschnitts-FPS darstellen können.
Ob die dazu 2,4 oder 6GB Speicher braucht kann dem Kunden genauso egal sein, wie viele Shader oder welche Taktung die Karte hat.
Das Problem ist doch, dass die Hersteller mit diesen zig Versionen von Grafikkarten den Markt überschwemmen. Früher gab es drei eine günstige, eine normale und eine teure Grafikkarte. Von der mittleren hat man eben erwartet das diese die gerade erhältlichen Spiele in mittleren Einstellungen gut darstellen konnte. Wer mehr wollte, hat die teure gekaut, während die günstige dafür da war, dass man ein Bild ausgeben konnte.
Heute gibt es je Hersteller ~10 Grafikkarten Versionen und dann wird künstlich an den Karten herumgeschnitten um ja jeden teildefekten Chip und Zwischenstufe irgendwie anbieten zu können.
Dabei entsteht dieser Wahnsinn mit den Karten mit wenig Speicher und solchen Krüppeln wie die GTX970.

Der Test der 1060 3GB hat ja gezeigt, dass ausreichend Rechenleistung da wäre, um gute FPS Werte zu liefern. Jedoch ist die Speichermenge so ungünstig gewählt, dass es eben Abstriche bei der Spielbarkeit gibt bzw Details reduziert werden müssen, um in einigen Games ein gutes Spielgefühl zu liefern

Mich macht aber neugierig, welche Zeitspanne du mit "früher" in Bezug auf Grafikkarten meinst?
Früher - also zb vor 8-10 Jahren gab es eine 8800GS (384/768) / 8800GT (256/512/1024) / 8800GTS (320/512/640) / 8800GTX / 8800GTX Ultra und das war erst der obere Bereich des damaligen Line Ups - 8600/8400/8200 Derivate noch nicht mal aufgezählt.
NVidia hatte damals schon unterschiedliche Ausbaustufen eines Chips für diverse gleichlautende GPUs verwendet und sogar noch eins drauf gelegt und die Nachfolgegeneration unter dem gleichen Namen verkauft (8800GTS). Der G9x Chip war ja ohnedies ein Langläufer, den Gabs in der 8000er Serie, in der 9000er Serie und zu guterletzt auh noch in der 200er Serie (G92b - GTS250 - glaub ich)

Also wenn man sich anschaut, wie sich die Hersteller schon damals ausgetobt haben, dann ist der heutige Zustand sogar schon fast angenehm, wo es Pro Chip nur 2 Derivate gibt
 
Wen die 970 interessiert, hab mal ein Screen vom MSIAB gemacht. Texturen sehr hoch, Rest max, TAA, Bewegungsunschärfe und CA aus. Erste Gegend (wo man wohnt), rumgelaufen und am Ende eine Schießerei verursacht.

DEMD FPS.jpg
 
G3cko schrieb:
7970 3GB VRAM seit 2011 vs GTX670 mit 2GB schon lange verhungert.
290 4GB VRAM seit 2013 vs GTX780 mit 3GB.
390 8GB VRAM seit 2015 vs GTX970 mit 3,5GB.

Titan und Sonderkarten mit doppeltem Speicherausbau, welcher extrem teuer ist mal außen vor.
Eventuell etwas zu polemisch präsentiert, trifft die Dinge aber letztlich doch sehr genau. Sehr ulkig ist, dass viele in diesen Tagen die absichtlich mega schmal produzierten Karten von Nvidia als technologisch fortschrittlicher darstellen, weil die Karten innerhalb der Messtoleranz einige wenige Frames mehr liefern und eben dabei sparsamer sind.

Nicht zuletzt ist einer der bedeutendsten Faktoren beim Stromverbrauch der Fertigungsprozess und dessen Güte. Da ist Nvidia eben tatsächlich unumwunden vorne. Dennoch könnte es einem mit rationalen Argumenten und der Fähigkeit der Extrapolation von Informationen möglich sein, dass der Speicherausbau der AMD-Karten in den letzten Jahren extreme Vorteile hat bringen können.

Und zwar gerade dann, wenn eine Karte alt und klapprig wird. Dass man anfangs einige wenige, unbedeutende Prozentpunkt hinter der Konkurrenz liegt, dürfte im Grunde doch sowieso nicht schlimm sein. Hat man eine Karte neu, laufen die Spiele für gewöhnlich doch ohnehin erst mal wie Butter; gemessen an der alten Karte, die man zuvor hatte.

===

Viele schreiben hier, dass sie bei der Texturqualität keinen Unterschied erkennen. Das kann sehr viele Gründe haben. Mglw. ein billiger Bildschirm, schlechte Augen oder schlicht und ergreifend die Tatsache, dass man es in bewegten Bildern bessen erkennen würde.
Wieder einmal ein Szenario, welches man mit einem klassischen Test nicht abbilden kann. Es sei denn, man hätte Videos, aber auch diese sind abhängig von der Hz-Zahl des Monitors daheim etc.
Aber wir tun lieber so, als hätte jeder zu Hause eine identische Beleuchtung, denselben Monitor und dieselbe Sehstärke und schlagen uns die Köpfe ein.

Ständig wird in den Kommentaren über die Dinge gezankt, die der Test, über den gesprochen werden könnte und sollte, rein logisch gar nicht darstellen kann. Genauso wenig wie der Speicherverbrauch zukünftiger Spiele bekannt ist. Trotzdem gibt es Leute, die vollmundig posaunen, dass sie jetzt schon wissen, dass 3GiB für die 1060 reichen werden ...

Dass aber ausgerechnet "schlecht optimierte" Spiele als Maßstab für diesen Test herangezogen werden ist gut und richtig denn diese Spiele existieren, werden gekauft und gespielt genauso wie andere auch und mir persönlich ist es lieber, ich sehe in welchen Games der worst case eintritt als ich sehe Games in denen der best case eintritt.
Du sagst es. Wenn man sich darüber bewusst wird, was getestet wird, ist vielen schon geholfen.
 
Zuletzt bearbeitet:
Nv43 schrieb:
Vorbilder müssen Spiele wie der Witcher 3 oder Frostbite Engine sein. Über EA kann man sagen was man will, aber programmieren können die noch. Frostbite läuft auch noch auf dem alten Toaster in meiner Küche und skaliert von da wunderbar auf alle möglichen Rechner hoch. Battlefield 1 sieht gut aus UND läuft auf jeder Kartoffel.

Ich selbst habe keinen Hexer installiert, aber hier wurde schon erklärt, dass selbst Witcher3 seine Schwächen hat. Zb mieserables LOD und aus dem nichts erscheinende NPCs.
Sogesehen ist es auch nicht der heilige Gral. Aber ich stimme dir bei dem Aspekt, dass sich die Entwickler wieder um schonenderen Umgang mit den vorhandenen Ressourcen bemühen sollten zu.

Dass aber ausgerechnet "schlecht optimierte" Spiele als Maßstab für diesen Test herangezogen werden ist gut und richtig denn diese Spiele existieren, werden gekauft und gespielt genauso wie andere auch und mir persönlich ist es lieber, ich sehe in welchen Games der worst case eintritt als ich sehe Games in denen der best case eintritt.
 
sapre schrieb:
nach den ganzen tests werde ich einfach die beste grake für 2-3 jahre kaufen, und das ist die 480.

Das war aber vorher schon bekannt.
 
Exit666 schrieb:
Wen die 970 interessiert, hab mal ein Screen vom MSIAB gemacht. Texturen sehr hoch, Rest max, TAA, Bewegungsunschärfe und CA aus. Erste Gegend (wo man wohnt), rumgelaufen und am Ende eine Schießerei verursacht.

Anhang anzeigen 580695

Danke dass du dir die Mühe gemacht hast. Leider sagt das Diagramm zu den Frametimes gar nichts aus, da der Maßstab unpassend ist: 0-1000ms & der Durchschnitt ist 18,5

Kannst du das obere Ende der Skala mal auf zb 100ms stellen? dann sollte man mehr sehen können
 
Die 8800GTS (320/640) waren aber G80 und die 8800GTS (512) der G92 also verschiedene Chips nur eben mit gleicher Produktbezeichnung, was sogar noch schlimmer als die GTX 1060 (3/6) verarsche ist.
Schon damals konnte man sehen wie in manchen Titeln die 8800gts 320 einbrach und die 8800gts 640 noch munter FPS schaufelte.
Daher habe ich schon immer allen zur größten Vram Ausbaustufe geraten. Schön, dass für die Neuzeit mal so ein Test gemacht wurde, als Fingerzeit für Skeptiker.
 
F4naTy schrieb:
Die 8800GTS (320/640) waren aber G80 und die 8800GTS (512) der G92 also verschiedene Chips nur eben mit gleicher Produktbezeichnung, was sogar noch schlimmer als die GTX 1060 (3/6) verarsche.
Schon damals konnte man sehen wie in manchen Titeln die 8800gts 320 einbrach und die 8800gts 640 noch munter FPS schaufelte.
Daher habe ich schon immer allen zur größten Vram Ausbaustufe geraten. Schön, dass für die Neuzeit mal so ein Test gemacht wurde, als Fingerzeit für Skeptiker.

hab ja in bezug zur GTS geschrieben, dass sie sogar die next gen unter diesem Titel verkauft haben. Vermutlich weil sie so populär war
 
pmkrefeld schrieb:
Nein, wird man wahrscheinlich auch nie können was wohl vor allem an der Software liegt, je nach Situation kann sich der Bedarf Unterscheiden.

Damit meinst du jetzt hoffentlich nicht, dass man die VRAM-Belegung nicht messen kann, denn die kann man problemlos messen mit vielen Tools.
 
Ap2000 schrieb:
Damit meinst du jetzt hoffentlich nicht, dass man die VRAM-Belegung nicht messen kann, denn die kann man problemlos messen mit vielen Tools.

Du kannst messen wie viel Ram reserviert wird, aber nicht wirklich sagen wie viel wirklich genutzt wird, vermutlich will pmkrefeld auf diesen Punkt ansprechen.
 
major_tom111 schrieb:
Kannst du das obere Ende der Skala mal auf zb 100ms stellen? dann sollte man mehr sehen können

So, nächster Versuch. Insgesamt spielt es sich ok, die großen Peaks waren Nahkampfkills (Cutscenes). Ich kann ja mal aus Spaß auf Ultra probieren. :D

DEMD FPS.jpg
 
Zurück
Oben