News GeForce RTX 3070 16 GB: Modder verdoppelt den Grafikspeicher für mehr FPS

Naja meine GTX1070 hat auch 8GB und zu der Zeit passte es. Also immer hat Nvidia nicht zu wenig VRAM verbaut.
 
bronks schrieb:
Anfang 1996 waren es etwa DM 200 bis 300. Zu der Zeit war das viel Geld. Im Schnellimbiß durfte man dafür knapp 20 Stunden arbeiten.
Ich hatte sie etwas billiger bekommen. War auf so ne Art Computerflohmarkt in einer großen Halle. Hatte die Karte gekauft und für 80 DM hat der Verkäufer mir die 2MB extra noch angeboten.
 
ach was war das damals noch mit Vesa Local Bus GPUs schön wo der Grafikspeicher noch gesteckt war und man einfach Speicher dazu stecken konnte.

Da war ich durch Zufall drauf gekommen als ich ein Mainboard wegwerfen wollte und mir die Speicherbausteine aufgefallen waren die so ähnlich aussahen wie die auf meiner Grafikkarte. Also hatte ich die mal verglichen und es standen die selben Infos drauf...

vom Board runter - auf die GPU drauf und mal eben den Grafikspeicher (wenn ich mich nun nicht vertue) von 1MB RAM auf 2MB RAM verdoppelt.

Ich wusste überhaupt nicht, was man überhaupt mit so viel RAM anstellen hätte können aber es lief, er wurde erkannt... und ich war der Held weil niemand in meinem Freundeskreis so viel GPU RAM hatte.

Nur schneller, besser wurde dadurch auch nichts 🤨

tja heute ist nicht mehr so einfach mit austauschen aber wie man sieht - wie es auch schon ein Russe damals machte, kein Ding der Unmöglichkeit wenn man das Richtige Werkzeug hat und weiß was man macht.
Ergänzung ()

Chilisidian schrieb:
Stand jetzt genehmigt sich kein Spiel mehr als 16GB und das ist auch nicht absehbar.
was aber nicht bedeutet das sich das Spiel auch mehr Speicher reserviert und belegt, wenn dieser auch verfügbar ist. Sniper Elite 5 und Diablo 4 Beta haben sich gerne mal 22GB untern Nagel gerissen nur weil er da war.
Das bedeutet aber nicht, das mit weniger RAM die Spiele nicht liefen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: UweW.
leonM schrieb:
Frage mich, warum man nicht eine Alternative schafft, sprich, einen Aufpreis auf Varianten mit mehr Speicher und jeder kann dann selbst entscheiden, wie Zukunftssicher er mit dem Kauf einer GPU sein will. Beispiel: 4070TI 12GB oder 4070 24GB mit +50€ Aufpreis, dann 4060 mit 8GB oder 16GB mit 40€ Aufpreis usw..
Weil Nvidia damit viel weniger Geld verdienen würde, als wenn die Leute mit jeder neuen Gen aufrüsten.
 
  • Gefällt mir
Reaktionen: pacifico und C0rteX
Skudrinka schrieb:
Wird Zeit für aufsteckbare Module..
War Anfang-Mitte der 90er voll normal. Auf die Matrox Millenium I und II, die Matrox Mystique wurden Huckepackplatinen mit 2, 4 oder 8 MB WRAM aufgesteckt. Bei so ziemlich allen Tseng Labs ET4000 konnten RAMs in Steckwannen nachgerüstet werden. Teils auch zum nachträglichen auflöten.

Bei einer meiner ersten Grafikkarte - ATI Graphics Xpression konnte auch RAM in Steckwannen nachgerüstet werden. Grafikkarte mit 512KB RAM = 500 DM. 2x 256 KB RAM zum nachrüsten = nochmal 500 DM.

Die Millenium I mit 2MB RAM WRAM kam "nur" 1000 DM. Was hatte ich mich damals geärgert. Von Matrox hatten mir die "Experten" im Märchenmarkt nichts erzählt.
 
  • Gefällt mir
Reaktionen: Intruder
pitu schrieb:
Dafür kann aber NVIDIA nix :daumen:
Qualität vor Quantität 🥰
Zu geringe Aufmerksamkeitsspanne? Dann lese dir meinen Kommentar bitte noch ein zweites Mal durch. Und diesmal richtig... (im Deutschunterricht würde die Lehrerin oder der Lehrer sagen, du hast einen inhaltlichen Fehler gemacht)
 
  • Gefällt mir
Reaktionen: C0rteX
electronish schrieb:
Und die 8 GB sind schuld, das ich nach einem Jahr von meiner 3070Ti bereits umsteigen muss. Danke Nvidia. Ich wechsel in dem Atemzug auch gleich das Lager.
Sorry - Aber - Selbst schuld.

Leistung der 2080ti mit -3GB Vram in der neuen Gen war einfach daneben.
Und wenn nicht grad zur UVP, zu Wucher-Preisen.
 
  • Gefällt mir
Reaktionen: JackTheRippchen
Painkiller72 schrieb:
Die Entscheidung mit der 2070 Super war damals goldrichtig
Es war zu der Zeit auch eine gute Oberklasse-Grafikkarte und die 8GB sind für die Leistung ausreichend dimensioniert.
 
UweW. schrieb:
Matrox Millenium I und II, die Matrox Mystique
Matrox war damals (vor 3D Zeiten) echt eine Hausnummer gewesen. Vor allem in Kombination mit den Voodoo 3DFX Karten bei uns eine beliebte Kombination.

Die letzte "3D Karte" von Matrox wurde glaube 2002 vorgestellt und ein besonderes Feature war damals "Surround Gaming"
1682418656732.png

was dann von anderen Herstellern später übernommen wurde und viele von euch sicherlich heute nutzen. Natürlich nicht mit Röhren-Bildschirmen 😂
Habe dieses Setup gezielt gewählt damit man sich mal ein Bild davon machen konnte wie es dann früher auf dem Tisch ausgesehen hat.

Leider ist dann Matrox im Consumer Bereich irgendwann vom Markt verschwunden. Sie haben sich zu lange an ihrer Überlegenen 2D Leistung festgeklammert und schlichtweg 3D vernachlässigt und konnten dann nicht mehr aufholen.

Wenn mich nicht alles irrt, gibts auch noch heute Matrox Grafikkarten allerdings eher im Enterprise Sektor.
Gab so viele gute Hersteller...
S3 Grafics hatte eigentlich auch tolle Karten aber viele Probleme mit Treiber. War dann auch weg vom Fenster.

Geblieben sind nur ATI (nun AMD), Nvidia und nun Intel.
 
Es ist aber auch nicht zu verstehen oder ? die drehen sich doch selbst den Kragen ab.
Das midrange Lager bis 4070TI wandert ab zu AMD.
 
  • Gefällt mir
Reaktionen: C0rteX
syfsyn schrieb:
Zur Meldung
Daran kann man sehen das die ampere chips ursprünglich anders geplant waren und nur durch mining und chipkrise keine 16gb modellen gekommen sind.
Dann machen auch die rtx3060 12gb auch Sinn wenn dazu rtx3070 16gb und rtx3080 20gb gekommen wären
Das es anders kam lag wie betont maßgeblich an mining.
Und wo ist das Mining bei der 4070TI?
 
Ich hatte beim Artikel zu CP2077 mit Pathtracing einige weniger sinnvolle Unterhaltungen mit Pro-Nvidia-Leuten und zugleich RTX-4090-Besitzern. Ich frage mich daher, ob meine Freunde @Taxxor, @Grestorn, @Mimir und Co. hier ebenfalls ein Plädoyer für Nvidias Raytracingkurs abhalten und wie sie es denn bitte mit Objektivität anstellen wollen. Oder aber ihnen ist bewusst, dass sie in diesem Fall komplett auf verlorenen Posten kämpfen würden. Die einzigen technisch stimmigen RTX-Grafikkarten für Gamer seit 2020 sind die: 3050, 3060, 4080 und 4090. Fairer halber hier noch das gleiche mit AMDs RX-Grafikkarten: 6600, 6600/6650 XT, 6700/6750 XT, 6800, 6800 XT, 6900/6950 XT, 7900 XT, 7900 XTX. Also irgendwie scheint hier Nvidia etwas Gehöriges falsch zu machen.
 
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
Ich frage mich daher, ob meine Freunde @Taxxor, @Grestorn, @Mimir und Co. hier ebenfalls ein Plädoyer für Nvidias Raytracingkurs abhalten und wie sie es denn bitte mit Objektivität anstellen wollen
Was soll man dazu schon sagen? 8GB sind zu wenig für RT >1080p und es hat auch niemand was anderes behauptet.

Mit der Pathtracing Unterhaltung hat das auch überhaupt nichts zu tun, zumindest habe ich dort nie über den Speicher geredet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Connecto
Crifty schrieb:
Unreal Engine 5.X jetzt die Marschrute für ganz viele neue Spiele vorgibt. Wir reden aber nicht davon das man sagt der verbrauch unter FullHD steigt von 8GB auf 9 oder 10, nein der Verbrauch steigt auf 12-13GB VRAM...BEI FULLHD. Das ist auch der Grund warum die 4070 auf einmal so verhalten vom Markt aufgenommen worden ist.

genau, dass ist mein derzeitiges problem wenn ich überlege ob ich mir echt ne 4070 in den pc setzen mag oder nicht.

ich überlege gerade ob ich auf eine 4070 wandere, meine rx 6900xt hatte die lange umbauzeit nicht überlebt, oder gleich auf eine 4080 gehe. gerade weil ich nur FHD spiele und ich jedoch nicht begrenzt sein will beim vram wenn spiele dann mehr als 12 GB VRAM haben will, wenn ich diese auf sehr hohen settings spielen mag.

dank 5800x3d + ddr4-3600cl14 ram sollte mich da nur die GPU begrenzen. mehrere lang spielte ich mit einem 595x + 2080 in FHD ohne probleme mit dem VRAM von 8GB, doch das system ist nur noch zum rendern da.
 
XBOX ftw schrieb:
Das andere ist DLSS.

Wenn Hardware von vornherein auf DLSS angewiesen ist um ein spielbares Spielerlebnis zu erzeugen, kann NVidia mit der Einführung eines "neueren" DLSS die alte Karte für neue Spiele auf einen Schlag unbrauchbar machen.

Das DLSS geplante Obsoleszenz ist stimmt aber gar nicht. DLSS 3 ist nichts anderes als FG wo dann DLSS 2, welches weiterhin für DLSS-fähige GPUs entwickelt und supported wird, dazu kommt. DLSS 3 ist nichts anderes als marketing Name für Frame Generation. DLSS 2 wird weiterhin von mehr und mehr Spielen dabei supported.

Und nur weil es jetzt FG gibt, ist Turing und Ampere alles andere als "unbrauchbar". Man kann da auch maßlos übertreiben.
 
  • Gefällt mir
Reaktionen: ThirdLife
Bei ‚Nvidia zieht nur 10 GB VRAM, AMD zieht 14‘ steht auch noch die Frage, mit oder ohne ‚Making Sh.. up‘ (DLSS/FSR)? Nvidia hat da deutlich mehr was dazugedichtet wird, daher wird auch weniger Speicher gefressen. AMD nutzt ein deutlich näher an der eigentlichen Auflösung befindliches Bild, braucht daher auch mehr Speicher.
 
Dai6oro schrieb:
Also stinkt deine 3080 in RT auch ab. Alles klar.
Also in CP2077 PT/RT liegt sie gut 50% vor einer 7900XTX. Soviel dazu. ;)

Aber ja. Hält "fast" mit. Wenn 50% weniger noch als "mithalten" bezeichnet werden können.🤔
 
TigerherzLXXXVI schrieb:
Es war zu der Zeit auch eine gute Oberklasse-Grafikkarte und die 8GB sind für die Leistung ausreichend dimensioniert.
Die 2070 Super hat die Performance einer 2080.

Die 2080 wurde hier im Forum durchgängig für die 8GB RAM kritisiert.

Bereits 1080ti mit der gleichen Leistung hatte 11GB
 
  • Gefällt mir
Reaktionen: ThirdLife
Crifty schrieb:
das z.B die Unreal Engine 5.X jetzt die Marschrute für ganz viele neue Spiele vorgibt. Wir reden aber nicht davon das man sagt der verbrauch unter FullHD steigt von 8GB auf 9 oder 10, nein der Verbrauch steigt auf 12-13GB VRAM...BEI FULLHD.
Was ich so von Entwicklern gehört habe, hätten die gerne bis zu 32GB VRAM für die UE5.
 
Zurück
Oben