Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Grafikspeicher: Wie viel VRAM habt ihr und was ist 2024 euer Minimum?
- Ersteller Vitche
- Erstellt am
- Zur News: Grafikspeicher: Wie viel VRAM habt ihr und was ist 2024 euer Minimum?
Verak Drezzt
Fleet Admiral
- Registriert
- Jan. 2020
- Beiträge
- 11.189
denke auch das sich der Speicher erst erhöhen wird wenn 8K mehr im kommen ist, solang sind 24GB für 4K noch mehr als genug, denke erst ggf. mit der übernächsten Generation sehen wir eine Steigerung, wenn überhauptBloodGod schrieb:Alle Gerüchte zur 5090 sprechen zb weiterhin auch sehr deutlich von 24GB….
Windell
Fleet Admiral
- Registriert
- Jan. 2008
- Beiträge
- 12.026
Ich bin von einer 980Ti mit 6GB VRam auf ne 6800XT mit 16GB VRam umgestiegen und bin auch sehr zufrieden, da ich sowieso "nur" auf 1080p spiele und in Zukunft ggf. auf WQHD umsteige.
Ich würde den VRAM immer im Bezug zum Preis setzen, weil ich denke, das ab einem bestimmten Preis xy im Jahr 2024 eine gewisse VRAM Menge einfach da sein sollten.
Für mich pers. hieße dies:
Bis 300€ 8GB
Bis 400€ 12GB
Bis 600€ 16GB
Bis 800€ 20GB
Über 800€ >20GB
Deswegen ist die normale 4070ti für mich ein "Speicherkrüppel" weil vor Allem bei dem Preis 16GB einfach ein Muss sind. Ganz unabhängig davon ob man sie braucht oder nicht.
Ich würde den VRAM immer im Bezug zum Preis setzen, weil ich denke, das ab einem bestimmten Preis xy im Jahr 2024 eine gewisse VRAM Menge einfach da sein sollten.
Für mich pers. hieße dies:
Bis 300€ 8GB
Bis 400€ 12GB
Bis 600€ 16GB
Bis 800€ 20GB
Über 800€ >20GB
Deswegen ist die normale 4070ti für mich ein "Speicherkrüppel" weil vor Allem bei dem Preis 16GB einfach ein Muss sind. Ganz unabhängig davon ob man sie braucht oder nicht.
Cohen schrieb:Ich hoffe, du bist auch bei deinen eigenen Hobbies so konsequent und gibst dafür nur das Allernotwendigste aus... falls du welche hast.
Ist ja mal wieder sehr nett hier, wer anderer Meinung ist hat es hier im "Diskusionsforum" nicht leicht.MaverickM schrieb:Und was genau suchst Du dann hier im Forum, bzw. zumindest in dem Thema hier...!?
Habe selber mal geschaut, für mich würden am 4K TV auch 4GB VRAM reichen, da ich nur Game-Emulatoren betreibe. Selbst für die beiden Switch Emus reichen 4GB.
Floppy5885
Lt. Commander
- Registriert
- Mai 2014
- Beiträge
- 1.606
BloodGod schrieb:Alle Gerüchte zur 5090 sprechen zb weiterhin auch sehr deutlich von 24GB….
Unrealistisches Wunschdenken?
Alle? , kann nach der ersten Google Suche schonmal nicht stimmen.
S
s1ave77
Gast
Habe doch bereits geschrieben, daß dies nur ein Teil des Ganzen ist. ReBAR/SAM und DirektIO und Co. sind Techniken, die den Verbrauch senken können, deutlich sogar.Hate01 schrieb:ersetzt aber nicht die Menge die benötigt wird.
Momentan wird der VRAM gefüllt als gäbe es kein Morgen, einfach weil im Flaschenhals von Datenträger>CPU>RAM>GPU jeder Geschwindigkeitsvorteil schneller NVMe-SSDs verpufft.
Da gilt es anzusetzen, nicht das Problem mit VRAM zu erschlagen.
Karl.1960
Lieutenant
- Registriert
- Dez. 2011
- Beiträge
- 746
Hatte die 3070 mit 8GB sogar für QHD im Einsatz und kein Probleme damit beim Zocken.Orok91 schrieb:12GB für Full HD
Cohen
Commodore
- Registriert
- Aug. 2010
- Beiträge
- 4.902
Es ging nicht um seine Meinung, dass eine 4GB-Grafikkarte ausreicht. Ich komme bei etlichen Spielen auch mit der Leistung einer Switch oder eines Steam Decks vollkommen aus, und selbst eine PS3 hat aus 0,25 GB VRAM tolle Grafik gezaubert.Ja_Ge schrieb:Ist ja mal wieder sehr nett hier, wer anderer Meinung ist hat es hier im "Diskusionsforum" nicht leicht.
Es ging eher um seine Pauschalverurteilung von Ausgaben für Computerspiele und passender PC-Hardware, die er nicht zum ersten Mal zum Besten gibt.
Eine SSD viel zu langsam. Eine GPU (oder sogar "nur eine CPU") braucht deutlich höhere Bandbreiten.mae1cum77 schrieb:Datenträger>CPU>RAM>GPU jeder Geschwindigkeitsvorteil schneller NVMe-SSDs verpufft.
Die Techniken um den VRAM Bedarf zu senken gibt es schon die sind:
1. Kompression (wird bereits verwendet)
2. Upscaling
was wiederum mehr VRAM braucht:
1. Raytracing
2. Abseits von Spielen: ML
Randfee
Lt. Junior Grade
- Registriert
- Aug. 2004
- Beiträge
- 351
Ich vermute der dual use mit edge AI wird auch Einzug halten und damit NVidia vermutlich quadro Karten fürs Büro und evtl. für privat wieder eine Titan anbieten die auch mehr Speicher haben.
Wenn ich wetten müsste würde ich aber vermuten, dass das noch dauert und man darauf setzt die Kunden immer mehr Richtung klaut Services zu nudgen. 😏
Mir sind die 24GB derzeit schon zu wenig für ML/KI 😡.
Für Games sehe ich nicht, dass man derzeit mehr braucht, höchstens VR und damit immer noch Nische.
Echt schade, beim Hybrid Grafik und Machine learning gibts leider keine Konkurrenz für NVIDIA. Eine 4090 ist der beste Kompromiss, danach werden die Preise absurd. Wer nur spielen will für den ist die 800€ klasse mit weniger vram gut genug… und ja auch schon sehr teuer
Wenn ich wetten müsste würde ich aber vermuten, dass das noch dauert und man darauf setzt die Kunden immer mehr Richtung klaut Services zu nudgen. 😏
Mir sind die 24GB derzeit schon zu wenig für ML/KI 😡.
Für Games sehe ich nicht, dass man derzeit mehr braucht, höchstens VR und damit immer noch Nische.
Echt schade, beim Hybrid Grafik und Machine learning gibts leider keine Konkurrenz für NVIDIA. Eine 4090 ist der beste Kompromiss, danach werden die Preise absurd. Wer nur spielen will für den ist die 800€ klasse mit weniger vram gut genug… und ja auch schon sehr teuer
Dümpel weiterhin mit meiner 3,5GB GTX970 rum, da mir weiterhin die Preise zu hoch sind. Wenn irgendwann mal Mittelklasse den alten Preis (350-400€) erreicht hat, dann schlage ich zu. Aktuell stört es mich aber nicht, da ich durch die Kinder eh kaum noch zocke.
S
s1ave77
Gast
DirektIO erlaubt der GPU direkt Daten von der NVMe über den PCIe-Bus anzufordern inklusive Dekompression auf der GPU. Wenn das für Textur und Asset-Streaming genutzt wird, senkt es den VRAM-Verbrauch deutlich. Die Entwickler müssen dann nicht mehr wie Messis alles vorhalten, wie es gerade getan wird.Hate01 schrieb:Die Techniken um den VRAM Bedarf zu senken gibt es schon die sind:
Holzfällerhemd
Lt. Commander
- Registriert
- Mai 2018
- Beiträge
- 1.104
Gar keinen, weil VRAM schon über 20 Jahre nicht mehr verwendet/verbaut wird.
Heutzutage über VRAM zu reden ist einfach falsch.
Heutzutage über VRAM zu reden ist einfach falsch.
Als Video Random Access Memory (kurz: VRAM, V-RAM oder WRAM) bezeichnet man DRAM, der vor allem in den Jahren 1993 und 1994 bis zur Jahrtausendwende als lokaler Speicher auf Grafikkarten Anwendung fand. Wichtigste Eigenschaft des Speichers sind zwei Ports (Dual-Port-RAM), ein „normaler“ zum wahlfreien Lesen und Schreiben (random access) und einer zum sequentiellen Lesen (Videosignal-Erzeugung).
Um die Jahrtausendwende wurde normaler RAM leistungsfähig genug, so dass normaler single ported-RAM (DDR oder GDDR) für Grafikkarten ausreichend wurde.
AvenDexx
Admiral
- Registriert
- Juni 2005
- Beiträge
- 8.283
Schön, wie du den letzten, aber durchaus wichtigen Satz aus dem Wiki-Beitrag rausfallen lassen hast. Dort heißt es nämlich auch:
Der Begriff VRAM meint also nicht nur den veralteten Speicherstandard, sondern auch den aktuellen Grafikspeicher (Video-RAM).
[...]In vielen Computerzeitschriften wird auch heute noch mit VRAM der Speicher einer Grafikkarte bezeichnet, unabhängig von der Speichertechnologie[...]
Der Begriff VRAM meint also nicht nur den veralteten Speicherstandard, sondern auch den aktuellen Grafikspeicher (Video-RAM).
Ähnliche Themen
- Antworten
- 403
- Aufrufe
- 21.946
- Antworten
- 14
- Aufrufe
- 4.462
- Antworten
- 30
- Aufrufe
- 18.072
- Antworten
- 6
- Aufrufe
- 2.542
- Antworten
- 75
- Aufrufe
- 15.561