256MB vs. 256Bit

Joe_Armstrong

Lieutenant
Registriert
Sep. 2005
Beiträge
563
Nabend

ich hätte gerne mal gewusst, ob der VRAM einer Graka den gleichen Zahlenwert wie das Speicherinterface hben sollte! oder eben anders herum:)


weil viele Karten haben 256MB und 256bit

oder 128MB und 128bit

was gilt dann für 512MB?

THX All
 
Das sind 2 verschiedene Werte die nichts miteinander zu tun haben.

Das eine, die Anzahl der bits, ist die Busbreite, was bedeuted das z.B. auf einmal 256 bits übertragen werden können.

Das Andere ist die Menge des Speichers, in MB. Sie gibt an wieviel insgesamt in den Grafikartenspeicher hinein passt.

Die Grakas die es momentan mit 512 MB gibt sind auch 256 Bit Grakas.
 
Also das Speicherinterface ist nicht an die Speichergröße gebunden. Es gibt sowohl Karten mit 128MB und 256Bit als auch mit 512MB und 128Bit. Die Bitzahl gibt nur die Speicherbandbreite an, natürlich gilt auch hier allgemein, mehr ist besser ;)
 
Die Bit-Angabe ist lediglich die Anbindung, mit der der VRAM an der GPU angebunden ist. Bei einem 256Bit Interface ist der VRAM auch mit einer Breite von 256Bit angebunden. Das Selbe gilt bei 128Bit (=128Bit Speicherinterface).

Wieviel VRAM deine Graka hat ist völlig schnuppe, sprich hat nichts mit der Speicheranbindung zu tun. Die seit der 9700PRO haben eigentlich alle teureren High-End Karten ein 256Bit Interface. (GF FX 5800 Ultra mal aussenvor gelassen) :D

Je breiter die Anbindung, desto "besser, schneller". Hängt natürlich auch vom RAM Takt ab. 512MB RAM auf einer Graka machen beispielsweise weniger Sinn, wenn er mit 128Bit angebunden ist. 256Bit sind hier um einiges besser.

mFg tAk

PS: Bitte korrigiert mich, falls ich falsch liege :D
 
Sinnvoll:

128MB - 128Bit
128MB - 256Bit
256MB - 256Bit
512MB - 256Bit

Nicht sinnvoll:

128MB - 64Bit
256MB - 64Bit
256MB - 128Bit
512MB - 128Bit
 
$$$Quale$$$ schrieb:
Nicht vergessen:

512Mb - 64Bit

Daran habe ich auch gedacht habe aber auf die Schnelle nicht die passende Grafikkarte gefunden...
 
GIGA reloaded schrieb:
Sinnvoll:

...

Nicht sinnvoll:

...
kann ich nicht so mit konform gehn. grds ist ein 256bit-interface gut. ein 64bit-interface kann genauso gut sein, wenn der ram 4x so hoch taktet.
wenn, dann wäre ein zusammenhang zwischen speicherdurchsatz und -größe sinnvoller. und auch da kann man keine genaue grenze zwischen sinnvoll und sinnlos setzen ;) immerhin kommt es auch noch darauf an, wie die gpu mit der zur verfügung gestellten bandbreite umgeht.
die grakahersteller wissen schon, was sie da tun. z.b. die neue 7600gt mit 256mb - was mittlerweile standard im mainstream ist - gekoppelt mit einem 128bit-interface ist z.b. sehr schnell ;) die 6800 ultra lässt sie alt aussehen und ist ne ernstzunehmende, weit billigere, alternative zur auslaufenden 7800gt.
 
vor allem 256mb und 128bit als nciht sinnvoll zu bezeichnen ist humbug

ach nee stimmt ja die 7600gt ist crap *kopfschüttel*
 
Ein 256Bit Speicher Bus ist wesentlich teurer als ein 128Bit Bus. Die 128Bit bei der 7600GT reichen, wie schon bensen gesagt hat, vollkommen aus. Das kleinere Interface wird durch denn höheren Speichertakt (700MHz) quasi ausgeglichen oder eben gar noch gesteigert.

mFg tAk
 
Man kann es nicht veralgemeinern, kommt immer auf die aktuelle Generation der Karten an.
Die "alte" GF6 6800 Ultra hat z.b. 256mb VRam und 256bit Anbindung und ist trotzdem "nur" gleichschnell wie die neue 7600GT mit 128Bit Anbindung.
Aber innerhalb der gleichen Grakageneration gilt immer, dass die Karte mit der 256bit Anbindung schneller ist als die mit 128Bit, v.a. bei AA/AF und in hohen Auflösungen!
 
Das ist eine löbliche Ausnahme, da nvidia sehr schnellen Speicher verbauen lässt sodass die 128Bit wieder ausgeglichen werden.

Es sollte auch nur ein kleiner Anhaltspunkt sein...

Wie riDDi sagte, genauer wäre es wenn man den gesamten Speicherdurchsatz im Zusammenhang mit der Speichergröße betrachet.

Aber dann wäre die Liste wohl endlos geworden ;)
 
Ganz einfach das eine hat mit dem anderen nichts zu tun.
 
man kann mittlerweile ja noch nichtmal mehr sagen, dass eine graka mit 64er interface nicht für gamer geeignet ist.
für ältere spiele sind die absolut brauchbar, wobei sie bei aktuellen titeln doch zu arg ins hintertreffen geraten. eine 7300 gs z.b. kann auch mal für ein ründchen fracry oder hl2 in ner auflösung abseits von 12*10 und 16*12. und wenn man dafür mit den details runtergehn muss, was solls? son ding kostet 50 eu ^^
an aa und af iss zwar nich zu denken, dafür erschlägt einen dann nicht der unterirdische af-algo ;)

GIGA reloaded schrieb:
Das ist eine löbliche Ausnahme, da nvidia sehr schnellen Speicher verbauen lässt sodass die 128Bit wieder ausgeglichen werden.
der schnelle speicher ist nunmal standard heutzutags. wobei es schon etwas blöd ist, dass der mainstream bei nvidia jetzt erst die 9700pro in sachen bandbreite überholt ;)
dabei überholt ne olle 7600gt ja schon ne 6800ultra, auf magische weise ganz ohne brachiale bandbreite ^^

im gegensatz dazu klotzt eine x800gto mit satten 32gb/s ran ^^
ich denke da lassen wir uns zu arg von den highend-karten blenden. mit was für einer ökonomisch einfachen technik der mainstream spielbare frameraten auf den bildschirm zaubert ist eigentlich viel schöner ^^
 
Zuletzt bearbeitet:
an aa und af iss zwar nich zu denken, dafür erschlägt einen dann nicht der unterirdische af-alg

Oh ja :evillol:


Unschön ist nunmal dass durch die beschnittene Speicherbandbreite die Leistung eben bei höheren Auflösungen und AA/AF leiden.

Aber was will man im Mainstream erwarten ;)
 
die 7300-serie ist eindeutig low-end ;) 64bit gehört imo nur noch ans untere ende des mainstreams (das beschnittene LE-zeug ^^). der performance-mainstream sollte mindestens mit 128bit ausgestattet sein, um wenigstens ein bisschen aa und af zu ermöglichen - was ja auch der fall ist.
 
Zurück
Oben