News Grafikspeicher: Wie viel VRAM habt ihr und was ist 2024 euer Minimum?

Interessant das fast 50% schätzen das die nächste GPU Gen mit über 24GB kommt, worauf stützen sich diese Annahmen?

Alle Gerüchte zur 5090 sprechen zb weiterhin auch sehr deutlich von 24GB….

Unrealistisches Wunschdenken?
 
  • Gefällt mir
Reaktionen: Penman und Verak Drezzt
BloodGod schrieb:
Alle Gerüchte zur 5090 sprechen zb weiterhin auch sehr deutlich von 24GB….
denke auch das sich der Speicher erst erhöhen wird wenn 8K mehr im kommen ist, solang sind 24GB für 4K noch mehr als genug, denke erst ggf. mit der übernächsten Generation sehen wir eine Steigerung, wenn überhaupt
 
Ich bin von einer 980Ti mit 6GB VRam auf ne 6800XT mit 16GB VRam umgestiegen und bin auch sehr zufrieden, da ich sowieso "nur" auf 1080p spiele und in Zukunft ggf. auf WQHD umsteige.

Ich würde den VRAM immer im Bezug zum Preis setzen, weil ich denke, das ab einem bestimmten Preis xy im Jahr 2024 eine gewisse VRAM Menge einfach da sein sollten.

Für mich pers. hieße dies:

Bis 300€ 8GB
Bis 400€ 12GB
Bis 600€ 16GB
Bis 800€ 20GB
Über 800€ >20GB

Deswegen ist die normale 4070ti für mich ein "Speicherkrüppel" weil vor Allem bei dem Preis 16GB einfach ein Muss sind. Ganz unabhängig davon ob man sie braucht oder nicht.
 
Cohen schrieb:
Ich hoffe, du bist auch bei deinen eigenen Hobbies so konsequent und gibst dafür nur das Allernotwendigste aus... falls du welche hast.
MaverickM schrieb:
Und was genau suchst Du dann hier im Forum, bzw. zumindest in dem Thema hier...!?
Ist ja mal wieder sehr nett hier, wer anderer Meinung ist hat es hier im "Diskusionsforum" nicht leicht.
Habe selber mal geschaut, für mich würden am 4K TV auch 4GB VRAM reichen, da ich nur Game-Emulatoren betreibe. Selbst für die beiden Switch Emus reichen 4GB.
 
BloodGod schrieb:
Alle Gerüchte zur 5090 sprechen zb weiterhin auch sehr deutlich von 24GB….

Unrealistisches Wunschdenken?

Alle? , kann nach der ersten Google Suche schonmal nicht stimmen.
 
Hab mir eine 4070TiS mit 16GB zugelegt. Meine alte hatte nur 8GB, das wurde allmählich zu wenig.
 
12GB für Full HD und alles drüber mindestens 16gb.

Komm natürlich immer drauf an wie lang man die Karte nutzen möchte, heutzutage werden GPU‘s ja so oft gewechselt wie Unterhosen😅
 
Wo ist meine Option? Mehr als 24GB... ach ja, wir sind hier ja auf Consumerbase.
 
  • Gefällt mir
Reaktionen: Hate01
Hate01 schrieb:
ersetzt aber nicht die Menge die benötigt wird.
Habe doch bereits geschrieben, daß dies nur ein Teil des Ganzen ist. ReBAR/SAM und DirektIO und Co. sind Techniken, die den Verbrauch senken können, deutlich sogar.

Momentan wird der VRAM gefüllt als gäbe es kein Morgen, einfach weil im Flaschenhals von Datenträger>CPU>RAM>GPU jeder Geschwindigkeitsvorteil schneller NVMe-SSDs verpufft.

Da gilt es anzusetzen, nicht das Problem mit VRAM zu erschlagen.
 
  • Gefällt mir
Reaktionen: Raptor85
Orok91 schrieb:
12GB für Full HD
Hatte die 3070 mit 8GB sogar für QHD im Einsatz und kein Probleme damit beim Zocken.
 
Minimum wären 64 oder 128 GB Grafikspeicher ansonsten kann man auch ins DOS Zeitalter zurück kehren.
 
  • Gefällt mir
Reaktionen: HisN
Ja_Ge schrieb:
Ist ja mal wieder sehr nett hier, wer anderer Meinung ist hat es hier im "Diskusionsforum" nicht leicht.
Es ging nicht um seine Meinung, dass eine 4GB-Grafikkarte ausreicht. Ich komme bei etlichen Spielen auch mit der Leistung einer Switch oder eines Steam Decks vollkommen aus, und selbst eine PS3 hat aus 0,25 GB VRAM tolle Grafik gezaubert.

Es ging eher um seine Pauschalverurteilung von Ausgaben für Computerspiele und passender PC-Hardware, die er nicht zum ersten Mal zum Besten gibt.
 
1709538593069.png
 
mae1cum77 schrieb:
Datenträger>CPU>RAM>GPU jeder Geschwindigkeitsvorteil schneller NVMe-SSDs verpufft.
Eine SSD viel zu langsam. Eine GPU (oder sogar "nur eine CPU") braucht deutlich höhere Bandbreiten.

Die Techniken um den VRAM Bedarf zu senken gibt es schon die sind:

1. Kompression (wird bereits verwendet)
2. Upscaling

was wiederum mehr VRAM braucht:

1. Raytracing
2. Abseits von Spielen: ML
 
  • Gefällt mir
Reaktionen: Alioth
Ich vermute der dual use mit edge AI wird auch Einzug halten und damit NVidia vermutlich quadro Karten fürs Büro und evtl. für privat wieder eine Titan anbieten die auch mehr Speicher haben.
Wenn ich wetten müsste würde ich aber vermuten, dass das noch dauert und man darauf setzt die Kunden immer mehr Richtung klaut Services zu nudgen. 😏

Mir sind die 24GB derzeit schon zu wenig für ML/KI 😡.
Für Games sehe ich nicht, dass man derzeit mehr braucht, höchstens VR und damit immer noch Nische.

Echt schade, beim Hybrid Grafik und Machine learning gibts leider keine Konkurrenz für NVIDIA. Eine 4090 ist der beste Kompromiss, danach werden die Preise absurd. Wer nur spielen will für den ist die 800€ klasse mit weniger vram gut genug… und ja auch schon sehr teuer
 
Dümpel weiterhin mit meiner 3,5GB GTX970 rum, da mir weiterhin die Preise zu hoch sind. Wenn irgendwann mal Mittelklasse den alten Preis (350-400€) erreicht hat, dann schlage ich zu. Aktuell stört es mich aber nicht, da ich durch die Kinder eh kaum noch zocke.
 
Hate01 schrieb:
Die Techniken um den VRAM Bedarf zu senken gibt es schon die sind:
DirektIO erlaubt der GPU direkt Daten von der NVMe über den PCIe-Bus anzufordern inklusive Dekompression auf der GPU. Wenn das für Textur und Asset-Streaming genutzt wird, senkt es den VRAM-Verbrauch deutlich. Die Entwickler müssen dann nicht mehr wie Messis alles vorhalten, wie es gerade getan wird.
 
Beim zocken reichen mir meine 12GB aber bei lokalen KI Berechnungen bin ich schon öfter mal an die Grenze gestoßen. Bei der nächsten Graka sollten es schon 16GB oder 24GB sein.
 
Gar keinen, weil VRAM schon über 20 Jahre nicht mehr verwendet/verbaut wird.
Heutzutage über VRAM zu reden ist einfach falsch.
Als Video Random Access Memory (kurz: VRAM, V-RAM oder WRAM) bezeichnet man DRAM, der vor allem in den Jahren 1993 und 1994 bis zur Jahrtausendwende als lokaler Speicher auf Grafikkarten Anwendung fand. Wichtigste Eigenschaft des Speichers sind zwei Ports (Dual-Port-RAM), ein „normaler“ zum wahlfreien Lesen und Schreiben (random access) und einer zum sequentiellen Lesen (Videosignal-Erzeugung).

Um die Jahrtausendwende wurde normaler RAM leistungsfähig genug, so dass normaler single ported-RAM (DDR oder GDDR) für Grafikkarten ausreichend wurde.
 
  • Gefällt mir
Reaktionen: Alioth
  • Gefällt mir
Reaktionen: Ja_Ge, ChrisMK72, s1ave77 und eine weitere Person
Zurück
Oben