News Grafikspeicher: Wie viel VRAM habt ihr und was ist 2025 euer Minimum?

Aladin86 schrieb:
zocken tue ich nicht und Grafikanwendungen verwende ich auch nicht
Dann aber ML, LLM und so Gedöns? Ich meine, zum Angucken wirst du die 4090 wahrscheinlich nicht im System haben. ;)
 
Viper2000 schrieb:
Die 6800 hat doch ordentlich Speicher. Die wird auch fûr WQHD noch lange genügen.

Eine Ernst gemeinte Frage: Abseits von E-Sport oder Games die sehr hohe FPS brauchen weil man z.B. online spielt, WARUM spielen Leute noch FHD wenn sie es nicht "müssen" weil der Monitor limitiert? Mit ganz wenigen Ausnahmen (Gost If Tsushima sah z.B ziemlich gut aus in FHD auf dem 4K TV), finde ich dass alleine WQHD zu FHD einen riesen Unterschied macht, ob Monitor oder TV. Also die Schärfe und Texturen empfinde ich als ungleich höher als z.B. dann WQHD zu 4K. Soll heißen, wenn man regelmäßig Wqhd spielt ist FHD deutlich unschärfer gerade in der Weite. Gleichzeitig kann man die ganzen krummen Auflösungen von PS4 Pro/PS5/ Series X wunderbar mit einem Wqhd-4K Schirm kombinieren, mal etwas besser oder etwas schlechter. Aber gut aussehende Spiele in FHD ist (fast immer) doch ein sehr großer Unterschied. Oder ist das nur meine Wahrnehmung? Oder warum spielen noch so viele in FHD (siehe Steam etc)
Sie hat genug Speicher und auch entsprechend Leistung dafür und wird mir noch sehr lange viel Freude bereiten.

Ich habe meinen Bildschirm schon ein paar Jahre und bin mit dem Bild zufrieden.
Für WOT nehme ich die easy zu erreichenden 144FPS sehr gerne mit und wenn würde ich direkt zu 4K wechseln. Dafür braucht man dann aber doch eine bedeutend stärkere Grafikkarte.
Die Kosten für die Karte, den Bildschirm etc und das alles obwohl ich mit aktuellen Bild zufrieden bin? Ich verzichte.
Zum Thema Konsole, meine aktuellste ist die Xbox 360 Elite :D
 
SamSoNight schrieb:
Zum Beispiel wird beim gleichen GPU-Chip immer zum Modell mit mehr VRAM geraten.
Ich hatte mal eine GTX 960 mit 2 GB, wofür ich auch schon schräg angeschaut wurde, weil ich nicht die mit 4 GB genommen hatte.
Sie hat dann trotzdem 10 Jahre gehalten. :)
 
  • Gefällt mir
Reaktionen: sentry0815
Naitrael schrieb:
Overkill würde ich es nicht nennen. Nutzlos kommt mir eher in den Kopf, wenn die 3060Ti trotzdem durchweg schneller ist.

"Normalerweise" ja, die 3060 Ti ist, nach heutigen Maßstäben der relativen Stagnation, auch fast eine andere Rohleistungsklasse (30%). Aber 8GB rutschen in die absoluten Minimumspecs. Entsprechend hier der Vergleich zwischen 3060 und 4060, die näher aneinander liegen. Zudem macht sich eventueller VRAM-Mangel nicht zwingend mit einem kompletten FPS-Einbruch bemerkbar. Sondern auch mit Textur-Popins oder unruhigeren Frametimes.

Grundsätzlich wird aber wie gesagt viel Clickbait aktuell betrieben. 8GB sind selbst NICHT am Ende, weil sie noch durchgängig Minimumspecs erfüllen. Demnächst verlangt Doom etwa auch explizit wieder nach 8GB. Allerdings sind 400-Euro-Karten am "Existenzminimum" echt krass. Andererseits: wie erwähnt. Irgendwer zahlt ja auch für Mittelklassekarten mittlerweile bis zu 600 Euro aufwärts. Da geht noch was. :D

Antimttr schrieb:
Ich hatte mal eine GTX 960 mit 2 GB, wofür ich auch schon schräg angeschaut wurde, weil ich nicht die mit 4 GB genommen hatte.
Sie hat dann trotzdem 10 Jahre gehalten. :)

Kommt immer drauf an, wofür. :) Ich war eine Gen später froh, dass man mir die 2-GB-1050 ausgeredet hatte. Das war damals die Minimumanforderung (siehe z.B. Dishonored 2). Mit der 1050Ti konnte ich später noch Elden Ring spielen und die krasse Preiskrise aussitzen. Selbst Deathloop produzierte keine Grafikfehler, verlangt waren 6GB minimum. Zur Erinnerung: Im Frühjahr 2022 (Elden Ring) kosteten selbst Einstiegskarten zwischen 400-600 Euro...
 
  • Gefällt mir
Reaktionen: Antimttr
Ich habe eine 3090 mit 24 GB. RAM ist fast schon zu viel für meine Ansprüche auf 1440p, aber die Karte war halt ein Geschenk, was soll ich machen?
 
Bei Neukauf würde ich in aller Regel nicht unter 16GB gehen (12GB sind bei einsteigerkarten ok für FHD-Gaming durchaus noch akzeptabel, aber dass ist nicht mein Kaufbereich und 8GB sind dort auch klar zu wenig)

Für 4K-Systeme finde ich wiederum auch 16GB eher knapp (das wird zwar noch meist reichen udn wie sehr mensch auf die Zukunft spekulieren sollte ist umstritten da 4K-Karten in aller Regel in den 4 Stelligen Preisbereich gehen, fällt es mir schwer sie als Kompromisslösungen zu sehen, bei denen derartige Zugeständnisse zu machen sind)
 
Mir fehlt hier eine Antwort bzgl. der 5060 8GB und das ist auch die einzig logische und sinnvolle hierzu: es ist eine reine Preisfrage. Für 400€ ist es absurd, für 299€ wärs absolut legit.

Nahezu jedes Produkt hat eine Daseinsberechtigung, nur zu welchem Preis ? Eine 5090 wär auch everybodys Darling wenn das Ding für 799€ über die Theke geht. Da würde hier im Forum auch kaum noch einer über 600W rumpiensen.
 
  • Gefällt mir
Reaktionen: xexex
8GB ist nicht grundsätzlich ein Problem.
Das Problem ist 8GB bei einer 5060TI für 400€

Die 4060 ohne TI passt mit 8GB. Ein bisschen zu teuer ist sie aber immer noch
 
  • Gefällt mir
Reaktionen: McFritte, Pisaro und ThirdLife
MrKingDusan schrieb:
Mit der 7900 XTX fallen mir nur zwei Games ein, die mal mehr als 16 GB gebraucht haben. Wobei ich mir nicht sicher bin, ob das ein Anzeigebug der Radeon Software war oder ein Bug von den Spielen.
Project Zomboid mit ca. 21 GB VRAM und New World mit ca. 18 - 19 GB VRAM. Mit der 5080 war ich nie über 12 GB VRAM bei PZ. New World keine Ahnung, zock ich nicht mehr.
Ist kein Bug. Die Grakas nutzen den freien Speicher flexibel für preload, je mehr Speicher zur Verfügung steht, um so mehr lädt die Karte im voraus um eventuelle Nachlade-Engpässe zu vermeiden.
 
Wer arbeiten geht und den PC für die Buchhaltung benützt benötigt sehr wenig
 
ruthi91 schrieb:
Eher andersum, die ganzen Features brauchen etwas mehr Speicherplatz, die berechnen sich nicht nur aus Luft und Liebe.
Tut mir leid da bist du falsch informiert.

Die NVIDIA GeForce RTX 5000-Serie bringt mehrere technologische Neuerungen mit, die den effektiven VRAM-Bedarf in Spielen und Anwendungen spürbar senken können. Im Mittelpunkt stehen dabei KI-gestützte Rendering-Technologien und effiziente Speicherverwaltung.

  • Besonders die Multi-Frame-Generation kann pro gerendertem Frame bis zu drei zusätzliche Frames erzeugen. Dadurch muss die GPU weniger Rohdaten im Speicher halten und verarbeiten, was den VRAM-Bedarf pro Bild reduziert.
  • DLSS 4 ermöglicht es, mit geringerer interner Auflösung zu rendern und das Bild per KI auf eine höhere Ausgabeauflösung zu skalieren. Das spart VRAM, da weniger hochauflösende Texturen und Buffers im Speicher gehalten werden müssen.
  • Die neuen Tensor-Kerne der fünften Generation beschleunigen KI-Operationen und ermöglichen eine noch effizientere Bildsynthese. Dadurch können Texturen und Details dynamisch angepasst und optimiert werden, sodass weniger Speicher für statische Assets benötigt wird.
  • Fortschrittliche Raytracing-Kerne der vierten Generation sorgen für eine effizientere Berechnung von Licht- und Schatteneffekten. Die Algorithmen sind darauf ausgelegt, Speicherzugriffe zu minimieren und die Auslastung des VRAM zu optimieren.
  • Zwar erhöht GDDR7 primär die Geschwindigkeit und Bandbreite, doch die höhere Effizienz bei der Datenübertragung ermöglicht es der GPU, mit weniger VRAM-Auslastung auszukommen, da Daten schneller zwischen GPU und Speicher ausgetauscht werden können.
Das bedeutet natürlich nicht das die Hersteller trotzdem Varianten herausbringen würden um damit erhöhten Profit aus der Erwartungshaltung oder Unwissenheit der potenziellen Käufern solcher Karten mit unnötig viel Speicher zu ziehen.
 
WolfLink schrieb:
Far Cry 5 von 2018 mit HD-Texturen und maximalen Details funktioniert zum Beispiel nicht.
Far Cry 5 inkl. HD Pack läuft auf meinen Laptop´s mit RTX 2060 (6 GB) in FullHD und 6800M (12 GB) in WQHD bei 60 FPS (Lock).
 
WPF und andere Hardwarebeschleunigung GUI Frameworks brauchen VRAM. Spotify zum Beispiel belegt bei mir min. 140 MB. Generell ist auf meinem Standrechner direkt nach dem Booten bereits gut 1 GB VRAM belegt. Und es schaut nicht so aus, als ob ein Spielstart dafür sorgt, dass solch belegter VRAM für Programm im Hintergrund in den shared Memory kommen.

Beim Notebook kann ich diese Speicherfresser an die Integrierte GPU hängen, da steht der ganze VRAM für das Spiel - oder was auch immer -zur Verfügung.

Für die nächste Desktop CPU denke ich deswegen an eine APU.
 
Wie wäre es eigentlich, wenn die Spielehersteller endlich mal wieder anfangen würden, ihre Games zu optimieren für ein flüssiges und zügiges Spielerlebnis und nicht mittlerweile mehrere 100GB an Festspeicher verschwenden, dann wäre auch das Problem des permanent zu kleinen VRAM nicht ganz so ausgeprägt. Also anstatt immer nur auf die Hersteller der Hardware zu "schimpfen", sollte auch den Softwarehersteller etwas Einhalt geboten werden. Das fängt ja schon beim Betriebssystem an ...
 
Waldheinz schrieb:
Wie wäre es eigentlich, wenn die Spielehersteller endlich mal wieder anfangen würden, ihre Games zu optimieren
Teilweise sicherlich, etwa bei nachgeschobenen Schnell-Ports wie The Last Of Us, die nicht die Prio genießen, weil die Kohle an der Konsole bereits eingespielt war. Aber: 8GB waren bereits in der RX 480 von 2016 für 250 Euro ein Ding. Auch Nvidia hatte die GTX 1060 mit 6GB am Start. Rein von den Nutzungsjahren wäre das so, als hätte damals jemand verlangt, dass es mit 512 MB in keinem einzigen Game zu Engpässen kommen darf. Das war nämlich die Mainstream-Bestückung der GeForce-8-Serie -- neun Jahre vor der RX 480 / GTX 1060.

So lange wie heute konnte man generell noch nie Hardware nutzen. Kingdom Come 2 läuft sogar noch auf einer GTX 1060 oder 1070, auch Indiana Jones recht ordentlich auf der 2060 Super von 2019. Das hat aber auch mit den Konsolen zu tun, die an einem Multiplattform-BLockbustermarkt entscheidend mitbestimmen, was überhaupt läuft. Keine der letzten davon war auch nur näherungsweise mit Highend-Hardware bestückt. Sollte es die PS6 plötzlich sein, wäre das am aktuellen Chipmarkt sehr ungewöhnlich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: K3ks und ThirdLife
MCCornholio schrieb:
  • Besonders die Multi-Frame-Generation kann pro gerendertem Frame bis zu drei zusätzliche Frames erzeugen. Dadurch muss die GPU weniger Rohdaten im Speicher halten und verarbeiten, was den VRAM-Bedarf pro Bild reduziert.
MFG erhöht den VRAM-Bedarf...je nach Spiel teils erheblich...die Rohdaten werden deswegen auch nicht weniger...
 
anexX schrieb:
Hab ne RTX 4060 8GB, ne RTX 2080 8GB, ne RTX 2070 8GB, und sogar noch ne GTX 1070 8GB (letztere im Retro PC) - und ja, ich komme mit 8GB Vram supergut klar weil ich nicht einfach alles auf Ultra knalle sondern meine Settings so anpasse das sie immer noch gut aussehen aber das Vram nicht überfordern - nen Grund auf 16GB zu setzen ? Sehe ich aktuell keinen.
Dann nutze ich ja in gewisser Weise einen Retro- PC zum zocken 😂
Aber egal, meine 1070ti stemmt noch die Spiele, die ich zur Zeit spiele, Aufrüstungsbedarf sehe ich für mich persönlich nicht mehr, meine wilderen Jahre sind vorbei.
Es reicht nur um ein bißchen länger in Sniper Elite 5 zu meucheln, vermutlich auch dann noch mal später Resistance, aber mehr brauch ich die nächsten Jahre nicht und für diverse Emulatoren ist mein "Retro-PC" auch mehr als ausreichend.
Grafik ist nicht wirklich alles, ich sag jetzt auch nicht, daß alle neueren AAA- Titel nichts mehr taugen, aber
man kann auch heut noch glücklich sein, wenn man einfach auch älteren Spielen eine Chance gibt.
 
Habe die 4070Ti Super Asus Pro Art mit 16GB !

Perfekt! VRam ist wie Hubraum beim Auto.
 
Zurück
Oben