News CXL Expansion Card von Gigabyte: 512 GB RAM aufstocken im Workstation-Mainboard

AAS schrieb:
128GB/s hat PCIE, DDR5 RAM hat 38,4–51,2 GB/s, passt also ;)
Latenz ist bei ~200-400 ns, ganz in Ordnung für AI, dass man darauf keine SQL DB betreibt sollte logisch sein.
Er hat ja von Vram geredet, als Erweiterung für Grafikkarten..
OK 128.., da war ich wohl bei 8x mit meinen 60..
 
  • Gefällt mir
Reaktionen: AAS
  • Gefällt mir
Reaktionen: Boulettendieb
WebBeat84 schrieb:
Man sollte mal lieber ein VRAM Adapter rausbringen, z.B. für den 2. PCIe Steckplatz auf dem Mainboard der eh von 99% aller nicht genutzt wird. DAS wäre mal was Sinnvolles! Denn die 16GB VRAM sind mittlerweile in 4K oft zu knapp! Und so müsste man nicht nur wegen dem VRAM direkt ne neue Grafikkarte kaufen.
Definiere oft. Kenne genug Leute die mit ner 4080 noch jedes Spiel problemlos in 4k spielen. Ja, mit DLSS... aber ohne scheitert es sowieso an der GPU und nicht am VRAM.

Ist also alles Quatsch hier alles zu pauschalisieren, nur weil es vielleicht in ein paar wenigen Ausnahmesituationen nicht mit 16GB VRAM reicht - und zu Ende gedacht war der Kommentar sowieso nicht. Der zusätzliche VRAM bringt dir nichts, wenn er elendig langsam ist.

Und sogenanntes Shared Memory gibt es schon seit anno dazumal und hat noch nie etwas gebracht.
 
@BDR529 Kingdom Come Deliverance 2 mit Texturen auf maximal, verbraucht bei mir 18,7 GB VRAM. Bei lediglich 1440p.

16 GB wird genauso schlecht altern wie die 8 GB bei der 3070. Das alles ist auch nicht neu, sondern kommt zyklisch immer wieder. Nur die Idioten, die solche Produkte kaufen, wachsen immer wieder nach.
 
Also 16 Gb reichen aktuell nicht für 4K in Doom und Indiana Jones.
 
Die Frage ist eigentlich wofür man den Ram gebrauchen kann z.b. im abgesichterten Modus in der Eingabeaufforderung z.b. LOL
 
joel schrieb:
Wäre doch mal was für die Grafikkartenhersteller, soll doch der Kunde bestimmen, wieviel VRAM ein jeder
haben möchte, 8 GB Basis und drei weitere Slots für bis zu 32 GB.

Von der Idee her wäre das für die Consumer gut, weshalb das Herstellerseitig sowieso nicht gefragt wäre.

Aber es gibt auch technische Gründe dagegen.
Moderner VRAM ist stark von Siganlqualität abhängig und wird deshalb immer möglichst nahe an die GPU platziert.
 
Zurück
Oben