Leserartikel VRAM-Usage aktueller Titel

Erstaunlich was manche Leute hier alles wissen...man könnte meinen, dass sie in den Forschungslaboren bei ATI/NVidia arbeiten... ;)
 
Man kann natürlich auch mal die Augen aufmachen, vieles lässt sich empirisch ermitteln^^
 
Nein erstaunlich ist, dass manche User hier trotz ihrer Erfahrung und langen Schreibens auf CB usw.. immernoch schlicht und einfach größenteils Quatsch verzapfen.
Bzw andere durch immer sich wiederholendes Gefasel einbläuen wollen, dass 1GB bei einer HD5870 absolut nicht reichen, dahingegen, aber 1GB bei einer HD5850 schon.
Es ist echt zum verzweifeln.
 
@ Kasmopaya

Mir ist schon klar,dass die 9800 GX2 wegen den zu geringen VRAM von nur 512 MB bei neueren Spielen gerne mal einbricht oder sogar komplett versagt,bei einer Auflösung von 1920x1200,16x Anisoptrie Filterung und 4x/8x AA auf maximalen Grafikeinstellungen.

Das hab ich ja selbst schon so erlebt bei Crysis oder Far Cry 2
Aber das ist eigendlich auch egal,da ich mir dieses Jahr eh keine neuen Spiele mehr kaufen werde,sondern hier erst im Januar 2010 zuschlage,wenn ich mir dann auch eine neue High End Grafikkarte kaufe mit mindetens 2GB VRAM.

Mir gehts ja hier in erster Linie primär darum,ob ältere Spiele auf 1920x1200 Auflösung,16x Anisoptrie Filterung und 4x/8x AA, auf maximalen Grafikeinstellungen mit 512 MB VRAM noch flüssig laufen auf der 9800GX2 Graka.


Das Spiel Oblivion ist ja jetzt schon 3 1/2 Jahe alt und zu der Zeit,wo es rauskam,gab es ja eh nur max. 512 MB High End Karten !

Deswegen ja meine Frage,ob Oblivion noch gut läuft auf 1920x1200,16x Anisoptrie Filterung und 4x/8x AA auf maximalen Grafikeinstellungen ?

Da ich jetzt einfach mal annehme,dass Du auch beruflich bei NVIDIA arbeitest,so stark & leidenschaftlich, wie Du die exklusiven NVIDIA 2GB Grafikkarten verteidigst und vermarktest,müsstest Du das doch eigendlich mit Leichtigkeit herausfinden können :p

Aber eigendlich müsste es ja einwandfrei laufen,auf einer solch aktuellen Graka ...

Die Spiele waren ja damals allgemein noch sehr hardwareschonend und haben wohl kaum viel VRAM gefressen bei dem damaligen Technikstand.Aber damals war ja Full HD auch noch nahezu kaum verbreitet und das verschlingt ja auch den meisten VRAM in Kombination mit 16xAF+4xAA.

Ich hoffe doch mal, das ich da dann nicht eine böse Überaschung erleben werde,wenn ich mir das Spiel jetzt kaufe und in diesen gewünschten Einstellungen spielen will auf meiner 9800GX2.

Falls doch,dann werde ich wohl mal wieder die Auflösung auf 1280x1024 runtersetzen müssen,um auf maximalen Grafikeinstellungen,16xAF + 4xAA spielen zu können,was aber eigendlich eine Schande ist,bei so einem starken 24 Full HD Monitor wie dem Samsung T240HD :(

Naja was solls,früher hatten wir schließlich auch über Jahrzehnte hinweg nur 1280x1024 auf 17 Zoll und hatten trotzdem vollen Spielspaß mit unseren Games,da werde ich diesen Kompromiss für 3-4 Monate auch noch irgendwie überleben :lol:
 
Hi

mal ne bitte, kannst du mal Lineage II testen ob es CPU oder GPU lastig ist oder ob meine 512MB VRAM ausreichen .

Da wäre ich sehr glücklich. Danke schon mal im vorraus.

Dann weiss ich auf was ich bauen muss bzw. aufrüsten

MFG
 
Zuletzt bearbeitet:
lineage 2 ist schon ein wenig älter,dass sollte 100% flüssig bei dir laufen.

macht euch mal nicht verrückt, bis auf crysis und konsorten läuft alles auf max flüssig mit einer 512mb 4870.


gruß
 
na da fallen mir dann noch mehr "Konsorten" ein^^ Aber da drehen wir uns wieder im Kreis.
 
@Schinzie

Ich rede von Mass PVP. Da habe ich auf Full Details 7 FPS und es geht nix ,muss dann auf Low Details umstellen damit es einigermassen läuft mit max 13 FPS.

Wollt doch nur wissen ob es CPU oder GPU lasstig ist.

Wenn ich manche leute sehe die machen Videos mit Full Details+Schaden+Fraps und es ruckelt nix und das im Mass PVP das verstehe ich einfach net. Da L2 keine Multi-GPU unterstüzt brauche ich ja kein SLI oder CF.

MFG
 
cpu
und die Festplatte sind sehr wichtig
bei manchen mmorpgs hast du durch eine zugemüllte Fetsplatte nur noch ein drittel der frames wie mit einer neuen.
 
Mir gehts ja hier in erster Linie primär darum,ob ältere Spiele auf 1920x1200 Auflösung,16x Anisoptrie Filterung und 4x/8x AA, auf maximalen Grafikeinstellungen mit 512 MB VRAM noch flüssig laufen auf der 9800GX2 Graka.
Also bei mir nicht. Input-Lag, Nachladeruckler und µRuckler machen das für mich auf jeden Fall zur no-go Nummer. Lad dir am besten die Demos von den Games die du testen willst dann kannst du selber testen und bist schlauer...

Ansonsten war die 9800GX2 schon am 1. Tag Fail, die war noch nie Ok oder gut, von daher ist es egal wie alt das Spiel ist...
Anders schauts im GPGPU Bereich aus Stichwort Fastra: https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/#post-4303110

Da ich jetzt einfach mal annehme,dass Du auch beruflich bei NVIDIA arbeitest,so stark & leidenschaftlich, wie Du die exklusiven NVIDIA 2GB Grafikkarten verteidigst und vermarktest,müsstest Du das doch eigendlich mit Leichtigkeit herausfinden können
Wenns um meine eigene Grafikkarte geht dann bin ich hald mit vollen Einsatz dabei. 2GB muss die GTX 380 schon haben. :D
 
Zuletzt bearbeitet:
Rivatuner, hier im Download-Bereich. Und es funktioniert nicht unter Vista (wenn ich da gerade Dein neues System anschaue^^).
 
Hat sich erledigt,hab ein bisschen das Netz abgesucht und bin fündig geworden.
Allso Oblivion läuft auf 1920x1200,16x Anisoptrie Filterung und 4x AA auf maximalen Grafikeinstellungen angeblich absolut flüssig auf einem 24'er Moni,allerdings nur im Originalzustand ohne Textur Mod's.

Passt allso alles,kann ich allso sorgenfrei kaufen und das Spiel in vollster Pracht geniesen.

Da bin ich sicherlich die nächsten 4 Monate damit beschäftigt,bis ich das durch habe und kann die Zeit gut überbrücken,bis dann endlich mal die neue GTX 380 erscheinen wird.

Ich werde dann höchstwahrscheinlich meine 9800 GX2 im Winter 2010 in Rente schicken und gegen eine GTX 380 in der 2GB VRAM Variante ersetzen (Sobald man diese ab 400,00 Euro oder weniger bekommt),da ich vor habe mir demnächst Spiele mit PhysX zu kaufen und ich auf dieses Feature nicht verzichten möchte.

Aber ehrlich gesagt finde ich die Kritik an der 9800 GX2 echt ein wenig überzogen von Dir:

Ich habe mir die EVGA 9800 GX2 im August 2008 für günstige 239,00 Euro gekauft und habe damit jedes neue Spiel mit 1280x1024 Auflösung,16x AF und 4x AA auf maximalen Grafikeinstellungen mit meinem alten 19 Zoll TFT super flüssig spielen können mit 50-75 FPS (VSync aktiviert),auch Crysis.

Und gerade bei Crysis gab es wohl damals keine einzige Grafikkarte auf dem Markt,die genug Power dafür gehabt hätte, Crysis in solchen Einstellungen so flüssig zu spielen mit über 50 FPS.

Nur die GTX 280 konnte das auch,aber diese war auch mit über 400,00 Euro damals nahezu doppelt so teuer wie die 9800 GX2 und ist auch sonst nicht schneller.

Daher viel meine Entscheidung damals im August 2008 auf jeden Fall auf die 9800 GX2,ist meiner Meinung nach die absolute Preis/Leistungs Königin gewesen bis zu dem Zeitpunkt wo die HD 4890 rauskam.

Für große Monitore über 22 Zoll + Full HD Auflösung ist Sie natürlich absolut nicht mehr zu gebrauchen und nun nach 1 1/2 Jahren Alter auch nicht mehr wirklich zeitgemäss für neue Spiele,da gebe ich Dir völlig Recht.

Das ist auch der Grund,warum ich Sie bald verkaufen möchte,jetzt wo ich mir vor 1 Monat einen neuen 24 Zoll Full HD Monitor gekauft habe (Samsung Syncmaster T240 HD).
Da brauche ich jetzt einfach eine neue,starke 2GB VRAM Grafikkarte,die mir mein Lieblingsspiel Crysis in vollster Pracht auf 1920x1200 Auflösung, mit 16xAF + 4xAA mit 50+ FPS auf den 24'er Bildschirm zaubern kann :p

Ich frage mich gerade,wie günstig die GTX 285 2GB im Preis fallen wird,sobald die GTX 380 rausgekommen ist ?

Sollte man die GTX 285 2GB wirklich für unter 200,00 Euro hinterhergeworfen bekommen,denke ich sogar fast darüber nach mir dann einfach zwei von diesen zu kaufen,anstatt einer GTX 380.

Auser die GTX 380 wird schneller als zwei GTX 285 2GB sein,dann natürlich nicht :lol:
 
Ok, vielen Dank. Da muss ich dir dann wohl recht geben. Wird wohl nicht klappen ;)
Naja, meine 8GB Ram bringen halt unter XP nicht wirklich viel. Wobei ich kaum Spiele habe, die das ausreitzen, aber bei 10€/GB konnte ich nicht widerstehen.

Funktioniert wohl dann auch nicht unter w7?
 
brabe schrieb:
, aber bei 10€/GB konnte ich nicht widerstehen.

Hmm, genau so hoch ist aktuell der Preis bei Intels SLC-SDDs, fällt mir grad auf...
SLC-Nand-Flach hat doch eine größere Speicherdichte als DDR-RAM oder? Müsste dann doch eigentlich billiger sein.
 
mit meinem alten 19 Zoll TFT super flüssig spielen können mit 50-75 FPS (VSync aktiviert),auch Crysis.
Was mich an der Konfig stört: TFT: TFT Input Lag + Winkelabhängigkeit + Interpolation der Auflösung, 50-75 Fake FPS die sich aus SLI Input Lag + 100% µRuckler zusammensetzten.

Noch dazu. GX2 ist extrem laut und braucht sehr viel Strom, hält den Rekord im Idle Stromsaufen und unter Last ist sie dual GPU typisch auch nicht sparsam. Nur Fake FPS liefern reicht eben nicht. Das Gesamtpaket macht eine Grafikkarte erst richtig gut. Wenn du damit leben konntest Respekt, gibt nicht viele die das können...
http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index13.php


Auch wenn du mit der GX2 hier nicht in ein Vram Limit gekommen bist, was durch den SLI Overhead schon eine Meisterleistung war, bleiben die anderen Probleme. Sorry GX2 bleibt eine der schlechtesten Grafikkarten ever.

Auch wenn du mit dem Gedanken spielst eine GTX 380 2GB:daumen: zu kaufen gibts für die GX2 keine Gnade von mir. Erstaunlich das du nach der GX2 nicht von SLI geheilt bist. :rolleyes:
 
Zuletzt bearbeitet:
sag blos du hast no ne röhre?^^

oder woraus schließt du auf seinen tft input lag? weil jeder einen hat? hochst du neben dem bildschrim oder davor,wegen winkelabhängigkeit?

interpolation der auflösung, er spielte doch nativ? 19" hat nämlcih 1280x960 oder ähnlcih.


gruß
 
Ich hatte einen 19 Zoll TFT damals mit 4 ms Reaktionszeit und sehr gutem,verspiegeltem Bildschirm (Was kein Problem war,da ich in meinem PC Zimmer meiner Wohnung sehr dunkle Lichtverhältnisse habe).

Da ich schnelles 16000 Internet habe + 1024KB Upload mit 5ms Ping ,hielt sich der Input Lag extrem minimal,so das ich auch online einigermasen gut dabei war bei CoD 4 und hier keinerlei spürbare Verzögerungen eintraten beim spielen,jedenfalls fiel mir nichts dergleichen auf.

Die Auflösung auf meinem damaligen 19 Zoll 4:3 TFT war natürlich eine native 1280x1024 Auflösung,hier wurde nichts interpoliert und da ich direkt vor dem Bildschirm sitze (20cm etwa) war der Blickwinkel auch niemals ein Problem,noch nicht mal beim snipern hat das gestört :evillol:

Microruckler hatte ich wirklich niemals zu spüren bekommen,da die FPS niemals die 40 FPS unterschritten haben,wo es kritisch wird (Einzige Ausnahme war hier Crysis im Eis Level,da spürte ich es dann schon,dass das Spiel leicht langsamer lief als sonst,trotz noch guter 35 FPS laut FRAPS)
Aber es störte nicht so extrem,man konnte trotzdem noch normal spielen.

Stromverbrauch ist mir eigendlich ziemlich egal,die 60 Euro im Monat tun mir nicht weh und ich bekamm sogar noch eine Rückzahlung dieses Jahr.

Und das trotz 6 Monate,jeden Tag 10 Stunden Betrieb eines 3,6 Ghz. Quad Core,auf einem NVidia 790i ultra SLI Board + stark übertakteter 9800 GX2 Graka und 2 WD Raptor HDD's im RAID0 :lol:

Was aber wirklich die größten Schattenseiten sind allgemein an SLI und mich am meisten generft hat:

Das ständige,monatliche Treiber Updaten,wenn ich neue SLI Profile gebraucht habe und allgemeine Treiberprobleme,die sich in Grafikbucks gezeigt haben.Erst mit dem 182.50 Treiber lief meine 9800 GX2 wirklich absolut rund und ab diesem Treiber wurden ja dann auch die Microruckler endgültig verbannt,dass Sie nur noch unter 30 FPS spürbar auftratten.Das war eine ganz schön lange,nerfenaufreibende Zeit bis dahin.

Und natürlich die große Lautstärke:Ich kann wirklich nur mit aufgedrehter 7.1 Anlage ungestört spielen oder mit aufgesetzten Headset.Und selbst da nerft das Lüfterrauschen,wenn es mal im Spiel ruhig zur Sache geht :/

Temperaturprobleme habe ich keine: Die 9800GX2 wird zwar gerne mal bei Crysis gute 96°C heiß,aber sie läuft trotzdem problemlos weiter und haut auch die ganze Hitze hinten wieder aus dem PC raus,ohne meinen restlichen Rechner aufzuheizen.
Aber mein System ist allgemein recht gut durchlüftet und hab hier nie Probleme mit hohen Temperaturen.

Denoch überwiegen bei mir die Vorteile über die Nachteile in Sachen SLI:
Gerade wenn es solche Spiele gibt wie Crysis,wo man die extreme Leistung um jeden Preis braucht, wenn man auf dem absoluten Maximum spielen will auf einem 24 Full HD Monitor und sich zu dieser Zeit keine alternative Single GPU anbietet,die die gleiche Leistung hat.

In diesem Fall,wenn es zum Beispiel bei Crysis 2 wieder dazu kommen sollte,dass es mit einer einzelnen GTX 380 2GB nicht flüssig läuft auf meinen gewünschten höchsten Ansprüchen,da würde ich jederzeit wieder bedenkenlos auf SLI setzen und mir eben noch eine zweite GTX 380 2GB dazu kaufen zur Verstärkung,da diese nach einer gewissen Zeit wohl auch schnell günstiger wird im Laufe der Monate nach Release und wohl im Sommer 2010 schon unter 300,00 zu haben sein könnte.

Nur auf eine ATI Dual GPU Lösung würde ich niemals im Leben setzen,da gibts leider wirklich immer noch extrem Probleme mit Microrucklern,ohne Besserung in Sicht und die Crossfire Treiber Politik gleicht einer völligen Anarchie.
Noch dazu muß man hier auf PhysX verzichten,was wohl nun in den kommenden DX11.0 Zeiten richtig populär und erwachsen werden könnte,wo nun langsam immer mehr Spieleentwickler darauf setzen.

ATI hat hier ja immer noch keine Alternative mit einer vergleichbaren Physikengine.Wer weis schon,wann es endlich die GPGPU unterstützte Havoc Engine für ATI Karten geben wird ...

Ich bin auf alle Fälle überzeugter SLI Fan :smokin:

SLI macht aber meiner Meinung nur mit dem stärksten Modell einer Grafikkartengeneration Sinn,mit 2GB VRAM oder in Zukunft vielleicht sogar noch mehr und nicht mehr als 2 Grafikkarten,wenn man es nur zum spielen nutzen will.

Auch sollte man sich SLI nur dann anschaffen zu dem Zeitpunkt,wo man die extreme Leistung auch wirklich braucht und eine Grafikkarte nicht mehr genug Leistung hat,es aber keine Alternative in Form einer Singlegrafikkarte gibt,die einem die selbe Leistung für den selben Anschaffungspreis bietet.

Erst dann lohnt sich SLI wirklich und zahlt sich echt totall aus,genauso war es damals bei mir im August 2008 mit der 9800 GX2,in der damaligen Situation auf dem Markt

So,jetzt aber genug Offtopic hier

Bye,Thomson
 
Zuletzt bearbeitet:
Da muß ich mich Kasmopaya anschliessen, V-Ram kann man nie genug haben, ich werde auch auf die "2GB" -Version warten. Spiele wie Crysis und Stalker fressen jede Menge an V-Ram, da sind selbst 1024MB zu wenig, wie man schön an dem Screen von @Y33ha sehen kann.

Ich gehe sogar soweit, und sage dass die 2GB-Version bestimmt 80% Mehrleistung bringt in hohen Quali-Settings, sieht man ja an der HD4870 512MB zu 1024MB ganz gut, glaub nicht dass da die Bandbreite limitiert.

Denke mal dass ATI erstmal den Launch der NV-Karten abwarten wird, dann können sie immer noch die 2GB-Version auf den Markt werfen!:D

MfG.
 
Zurück
Oben